查看原文
其他

科学选择与伦理选择的冲突: 麦克尤恩《像我这样的机器》中的人工智能与脑文本

尚必武 外国文学研究 2021-09-20

点击上方“外国文学研究”可以订阅哦

内容摘要


麦克尤恩在其新作《像我这样的机器》中,以人工智能为噱头,极尽人物叙述之能事,生动刻绘了机器人介入人类生活所引发的冲突与矛盾,适逢其时地提出了“机器人的本质是什么?” “人与机器人之间的关系如何?”以及“人工智能是否可以超越或替代人脑?”等一系列发人深省的问题。本文基于机器人亚当与女主人公米兰达“偷吃禁果”和亚当之死两个叙事片段之文学伦理学分析,试图对上述问题加以回应。文章认为,人是自然选择和伦理选择的产物,机器人是科学选择的产物。亚当只有存储相关信息和指令的电子文本,不具有人类特有的生物性脑文本,缺乏区别善恶观念的伦理意识;人工智能在本质上属于电子文本,无法替代承载伦理意识的脑文本,由此导致它难以应对人类世界的伦理问题。在某种程度上来说,以亚当为代表的机器人与以查理和米兰达为代表的人类之间的矛盾隐喻了科学选择和伦理选择的冲突,而亚当的毁灭则揭示了机器人之于人类道德生活介入的失败。

作者简介

尚必武,上海交通大学外国语学院教授,教育部青年长江学者,欧洲科学院外籍院士,主要从事叙事学、文学伦理学和英美文学研究。

Title

The Conflict between Scientific Selection and Ethical Selection: Artificial Intelligence and Brain Text in Ian McEwan’s Machines Like Me

Abstract

With the gimmick of artificial intelligence and the tricks of character narration, McEwan’s newly released novel, Machines Like Me, tells a realistic story about conflicts and contradictions in the wake of a machine’s engagement with the life of humans and, timely, raises a number of thought-provoking questions, such as “What is the nature of the machine?” “How is the relationship between the machine and humans?” and “Can artificial intelligence surpass or replace human brain?” This article attempts to explore the above mentioned questions by analyzing, within the conceptual framework of Ethical Literary Criticism, two episodes of the story, namely, the tasting of the “Forbidden Fruit” by Adam, the robot, and Miranda, the heroine, and the destruction of Adam. It contends that human beings are products of natural selection and ethical selection, while machines are products of scientific selection. As a machine, Adam has no biological brain text like humans, but only an electronic text used for storing and processing information and commands. Therefore, he has no ethical consciousness to tell the good from the evil. To a large degree, artificial intelligence is a type of electronic text in nature and cannot replace the brain text armed with ethical consciousness, which accounts for Adam’s failure to deal with ethical issues in the world of humans. In a way, the conflicts between robots like Adam and humans like Charlie and Miranda can be seen as the conflicts between scientific selection and ethical selection, and the death of Adam signals the failure of machines’ engagement with ethical issues of the humans.

Author

Shang Biwu is a professor of English at Shanghai Jiao Tong University (Shanghai 200240, China) and a Foreign Member of Academia Europaea. He is mainly engaged in the studies of narratology, Ethical Literary Criticism, and contemporary Anglo-American fiction.

Email: biwushang@sjtu.edu.cn

2018 年10 月,英国当代知名小说家伊恩·麦克尤恩(Ian McEwan)作为“21 大学生国际文学盛典”的年度致敬人物,首次来到中国,并发表了题为《如果有一天“人造人”写出了小说》的演讲。麦克尤恩说:“我想要开启一段短暂的路程,踏入不可知的未来。我的出发点是在我们的有生之年已经发生的一项深刻的改变,而它影响的是这颗星球上的绝大多数成人,还有孩子。”①麦氏演讲中提到的“深刻的改变”在很大程度上源自他本人关于数字革命与人工智能的思考,其新作《像我这样的机器》(Machines Like Me, 2019)便是这一思考的结晶。小说以人物叙述的笔法,重点讲述了机器人亚当在进入主人公查理及其女友米兰达的生活后,所发生的冲突和矛盾。关于这些冲突和矛盾,小说中有两个细节值得特别关注:一、亚当同米兰达偷吃禁果,发生性关系后宣称自己爱上了米兰达,并将质问它的查理打成了重伤;二、亚当揭发了米兰达曾因为其好友玛利亚姆伸张正义而做过伪证的违法行为,致其锒铛入狱,出离愤怒的查理最终用一柄铁锤终结了亚当。

鉴于人类的个体和主体行为受其大脑控制,而机器人的行为直接由其程序所发布的指令所控制,以查理、米兰达为代表的人类和以亚当为代表的机器人之间的冲突在很大程度上缘于他们的大脑或思维的不同。艾伦·帕姆尔(Alan Palmer)曾指出:“阅读小说就是阅读心理”(Novel reading is mind-reading)(Palmer 208)。按照文学伦理学批评的观点,“作品中人物的心理活动和精神分析也是通过脑文本展开的。只要分析心理和精神,就需要对脑文本进行分析”(杜娟 5)。由此出发,我们不妨从文学伦理批评、尤其是脑文本概念出发来审视查理、米兰达与亚当之间的冲突与矛盾,进而探讨“机器人的本质什么?” “人与机器人之间的关系如何?” “人工智能是否可以超越或替代人脑?”等麦克尤恩式问题。

01

人造人、机器直觉与电子文本

麦克尤恩在关于数字革命的演讲中提到:“许多个世纪来,在许多种不同的文化中,人们的脑海里一直萦绕着一个梦,那个梦就是创造出一个人造版的我们。就像基督教的上帝用黏土造出第一个人那样,我们自己或许有朝一日也能成为上帝,造出我们自己的第一个人造人。” ②实际上,人造人也是《像我这样的机器》中的一个重要命题。在《圣经》中,一个最重要的创造神话就是上帝造人的故事。上帝通过复制自己的模样,创造了人类。那么人类是否也可以仿照自己的模样去创造人类?在《像我这样的机器》中,随着科技时代的来临,亘古的梦想变为现实。让叙述者沾沾自喜的是,他是人造人的最早亲历者。无论是麦克尤恩的演讲还是小说《像我这样的机器》的开篇,都呼应了人造人时代的来临。问题在于,我们该如何看待人造人?人造人的本质是什么?从文学伦理学批评的视角来,人造人在本质上是科学选择的结果,它与经历自然选择和伦理选择两个过程的人有着本质的不同。根据聂珍钊的观点,“在人类文明的发展过程中,自然选择解决了人的形式问题,从而使人能够从形式上同兽区别开来。伦理选择解决了人的本质问题,从而使人能够从本质上同兽区别开来。科学选择解决科学与人的结合的问题”(《文学伦理学批评导论》251)。在接受访谈时,聂珍钊又进一步阐释了自然选择、伦理选择和科学选择的实现过程。他说:“自然选择是通过进化实现的;伦理选择是通过教诲实现的;科学选择是通过技术实现的”(杜娟 9)。在小说中,自然选择、伦理选择和科学选择的区别突出表现在机器人亚当不具有承载伦理意识的生物性脑文本。在文学伦理学批评看来,“文本有三种基本形态:脑文本、物质文本和电子(数字)文本”,而“脑文本”是人体特有的“一种特殊的生物形态,是人的大脑以记忆形式保存的对事物的感知和认识”(聂珍钊,《文学伦理学批评导论》270)。作为科学选择的产物,机器人亚当不具有人类特有的生物性脑文本,缺乏辨别善恶的伦理意识。

小说有意戏仿《圣经》中上帝造人的故事,将最早的一批机器人也取名亚当和夏娃,旨在预示一个新时代的开启。小说写道:“ 第一批中的十二个人被命名为亚当,十三个人被命名为夏娃”(McEwan 2)。第一批机器人颇受市场欢迎,上市一周,夏娃就被售罄一空。叙述者只好退而求其次,选择了亚当,不过让他特别振奋和欣慰的是,人工智能之父艾伦·图灵(Alan Turing)也购买了同款机器人。或许这也是为什么后来叙述者与图灵有过交集、甚至因机器人问题而专程登门拜访他的原因。

亚当在外貌上与常人无异,甚至比一般的男性更为高大帅气。不过,亚当英俊的人形外貌不能掩盖它并非是经过自然选择和伦理选择的正常人这一事实。作为一名机器人,亚当主要具有三个方面的科学选择特征:第一, 亚当没有人类的肉身,仅仅是类似人类或很像人类而已;第二, 亚当的性格是叙述者查理及其女朋友米兰达根据机器人操作指南通过计算机程序设置完成;第三, 亚当具有超越正常人类水平的深度学习能力,这点突出表现在它对电子信息的采集处理能力上。查理买回亚当后,他最先关注的问题是,亚当会不会是一个无趣的伴侣。他说:“亚当会不会无趣?在既发布指令的同时,又努力让买家没有一丝悔意,并非易事。确定无疑的是,别人、别人的大脑一定会继续让我们着迷。随着人造人越来越像我们,到成为我们,到比我们更像我们,我们永远都不会厌倦它们”(McEwan 6)。在叙述者看来,决定亚当是否有趣或无聊的决定性因素是其大脑。值得注意的是,叙述者在这里有意提到了“人造人”(artificial people)。在描述机器人的时候,英文单词artificial 通常与另一个单词intelligence 结合在一起,即artificial intelligence(人工智能)。机器人的大脑或曰机器人的人工智能具体表现为机器人对电子文本的采集与处理。与其说叙述者查理关注亚当的外形,倒不如说他更加在意亚当的大脑。然而,亚当的大脑不是真正意义上的大脑,无论它具有多高的智慧,都只是针对电子文本的信息处理器而已。亚当被认为具有思维的能力,但实际上它只具有信息采集和信息处理的能力。

在机器人广告中,亚当被描述为具有超强的信息收集和处理能力。“他被称为是一个伴侣、一个可与之辩论的精神伙伴、一个朋友、一个会洗碗、铺床和思考的勤杂工。在他存在的每个瞬间,所见所闻均被录制,并可提取”(McEwan 3)。在上述所有能力中,查理最感兴趣的莫过于亚当可以“思考”(think),但是机器人的思考与人的思考有着本质的不同。人的思考是作为一种脑文本存在,而机器人的思考是作为一种电子文本存在。机器人思考的独特优势在于超强的信息搜集能力。这也是亚当后来可以查询米兰达庭审记录的一个重要原因。在这种意义上,便有了所谓的“机器学习”,以及随之产生的“机器直觉”(machine intuition)。在小说中,叙述者提到了“直觉型的人工大脑”(intuitive artificial mind)这个概念。20 世纪60 年代,“直觉型的人工大脑”被认为是一个“城市传奇”。1968 年,“艾伦·图灵和他年轻的同事戴密斯·哈萨比斯设计出了一款软件,击败了世界上最伟大的五子棋大师”(McEwan 37)。通过列举这个事例,叙述者试图说明“机器直觉”的优越性,而这种直觉主要依赖机器人获取信息、处理信息的能力。

机器人的思维能力与其机器直觉、信息获取能力、信息处理能力等密切相关,而这一切都离不开电子文本的作用。亚当也具有类似的直觉和判断。在某次充电完成后,亚当凭借自己对所获取的大量信息的处理,警告查理要提防女朋友米兰达,说她是“有计划有步骤的、恶毒的撒谎者”(McEwan 30)。暂且不论查理是否相信亚当所言,这至少透露了亚当非同寻常的判断力。个中原因,主要归因于亚当通过借助计算机和网络,建构了信息丰富的电子文本。

在文学伦理学的批评体系中,脑文本的构成在于诸多“脑概念”的形成,而机器人亚当没有脑文本,只有电子文本。它的理性与判断来自其对电子文本中大量信息的处理,结果便形成了某种类似于人的脑概念的“拟似性脑概念”(pseudo brain concept)。这点突出反映在亚当独特的感知能力:“他知道他的存在,他有感觉,无论什么,他能学的都学。当他不和你在一起的时候,当晚上他休息的时候,他就在因特网上游荡,就像草原上一个孤独的牛仔,观赏和吸收天地间包括关于人性和社会在内的所有一切新事物”(McEwan 179)。实际上,无论亚当怎么越来越像人,它终究不是真正的人类。这也是后来当查理和米兰达领养男孩马克的时候,亚当心生嫉妒和产生不满的一个原因,尽管马克年龄比它小,没有亚当般信息处理的能力,更遑论如亚当一般在网上赚钱了。需要指出的是,机器人亚当的电子文本与人类的脑文本在信息存储时间和信息提取有效性上存有很大的差异。脑文本会随着人类肉体的消亡而消失,而电子文本则可以被永久保存和随时提取。在论及人类的大脑与机器人的大脑之间的区别时,亚当说:“查理,这就是我们之间的区别。我的身体部分将会被优化或替换。但是我的大脑,我的记忆、经历、身份等都会被上传和保留。它们是有用的”(McEwan 145)。亚当可谓一语中的,它从文本存储的角度直接指出了人类与机器人之间的差异,即生物性的人类脑文本会随着人类的死亡而消失,而机器人身上的电子文本则可永久存留。

02

偷吃“禁果”:电子文本与脑文本的冲突

《圣经》记载了人类祖先亚当和夏娃在伊甸园中偷吃禁果而与上帝发生冲突并遭到惩罚的故事。在文学伦理学批评看来,亚当和夏娃偷吃禁果之后,产生了伦理意识,具有了理性意识和分辨善恶的能力。用聂珍钊的话来说,“他们同偷吃禁果之前的自己相比,其最大不同在于具有分辨善恶的能力”(《文学伦理学批评导论》35)。从伦理选择的角度来看,“亚当和夏娃通过吃智慧树的果子而能够分辨善恶,完成了伦理选择,终于从生物学意义上的人变成了有伦理意识的人” (《文学伦理学批评导论》35)。在《像我这样的机器》中,麦克尤恩也同样书写了一则偷吃禁果的故事:机器人亚当与叙述者的女朋友米兰达发生了性关系。不过,与《圣经》中的亚当、夏娃偷吃禁果而获得伦理意识、完成伦理选择的情况截然不同的是,机器人亚当在与人类米兰达偷吃禁果后,引发了伦理混乱。

叙述者在一开始就强调说,亚当不是一个性爱机器人,尽管它被程序设计了具备性功能。“亚当不是一个性爱男孩。但是,他具有做爱的能力,有功能性的黏液,为了保持这些黏液,他每天要消耗半公升的水”(McEwan 3)。令叙述者出乎意料的是,某天晚上他发现了亚当与自己的女友米兰达发生了不当的性关系。小说以非自然聚焦的方式呈现了这一场景:


我的大脑或者我的心看到了亚当和米兰达紧紧相拥躺在床垫上,找到了一个舒适的姿势,四肢相拥。我看到她在他耳畔细语,但是我听不见她说什么。她从来没有在这种时刻在我耳畔细语过。我看到他亲吻她——比我对她的亲吻要深、要长。大到可以举起窗框的手臂紧紧环绕着她。几分钟后,当他跪下用舌头取悦她的时候,我把头扭开了。这是最富盛名的舌头,湿润,带着呼吸的温度,善于发小舌音和唇音,从而让他说话具有真实感。我看着,一切都不足为奇。他并没有像我一样完全满足我的爱人,而是让她苗条的身体背部拱起来,迫不及待以懒猴的姿势平稳地趴在她上面,至此完成了对我的羞辱。黑暗中我看到了所有的一切——人将被淘汰。我想劝自己说亚当没有感觉,他只能模仿被抛弃的动作。他永远无法知道我们所知道的。但是艾伦·图灵年轻的时候常说,在不能区别机器和人类在行为上的差异时,我们必须赋予机器以人性。所以,当夜晚的空气被米兰达绵长而欣喜若狂的尖叫、呻吟和窒息般抽泣所突然穿透的时候——我在窗户敲打的二十分钟里听到了这一切——我给亚当提供了同类的特权与责任。我恨他。(McEwan 84)


叙述者自述在黑暗中目睹了亚当与米兰达发生性关系。从叙事学角度来说,这属于典型的非自然叙事。按照扬·阿尔贝(Jan Alber)的解释,非自然叙事指的是“物理上、逻辑上、人类属性上不可能的场景与事件”(Alber 14)。具体说来,所谓的非自然叙事“就是相对于统治物理世界的已知原则、普遍接受的逻辑原则(如非冲突性原则)或者之于人类知识与能力的标准限度而言,所不可能再现的场景与事件”(McEwan 25)。亚当和米兰达在楼上做爱时,叙述者在楼下。他至多只是听到动静罢了,但是他却绘声绘色地说自己如何目睹了人机做爱的场面,甚至还对性爱姿势做了十分详尽的描绘。这既超越了人类的正常能力,也违背了客观的物理规律。叙述者一会说自己看到了所有场面,一会又说自己把头扭开了。在非自然叙事学家布莱恩·理查森(Brian Richardson)看来,这种自相矛盾的叙述属于典型的“解叙述”(denarration)(Richardson 58-59)。关于小说《像我这样的机器》的非自然叙述,笔者会另文再论,在此不赘。需要强调的是,麦克尤恩运用非自然叙事笔法,旨在揭示这一事件的非自然性,尤其是它在伦理秩序上所引起的混乱。

从表面上看,叙述者出离愤怒的原因在于被机器人亚当夺爱,抑或遭女友米兰达背叛。值得注意的是查理、米兰达和亚当对这起性爱事件的不同反应。相比查理的愤怒,米兰达则持有无所谓的态度,认为亚当只相当于一个“振动器”(vibrator)而已。由此说来,查理的愤怒没有必要,因为她根本就没有把亚当看作是人,人机之间发生的关系算不上偷情,自己的行为也算不上背叛。小说写道:


过一会后,她略带温柔地说:“你昨天晚上听到我们了。”

“我听到你们了。”

“然后你感觉很不安。”

我没有回答。

“你不应该这样。”

我耸耸肩。

她说,

“如果我只是和一个振动器上了床,你还是会有这样的感觉吗?”

“他不是一个振动器。”( McEwan 91)


在米兰达的眼里,亚当并非自己的情人,甚至它连人都不是,至多只是一个解决性需求的“振动器”。我们该如何理解米兰达的这一叙事判断?根据詹姆斯·费伦(James Phelan)的观点,叙事判断大致有三种类型,即“对于行动的本质或叙事其它因子所做出的阐释判断;对人物或行动的道德价值所做出的伦理判断;对于叙事及其组成部分之艺术质量所做出的审美判断”(Phelan 9)。从费伦关于叙事判断的观点出发,米兰达将此事阐释为她在和一个“振动器”发生性行为,属于一种自慰行为,算不上对查理的背叛。米兰达以人与机器人之间的属性差异为由,撇清了自己与亚当的关系,在试图给查理带来安慰的同时,也规避了对该起事件道德价值的伦理判断。

如果在米兰达与亚当之间的性爱事件这个问题上查理与米兰达只是因为观念不同而发生了言语冲突,而查理与亚当则发生了严重的肢体冲突。更准确地说,作为人类的查理在面对机器人亚当时,接连遭到了挫败。在批评亚当的不当行为时,查理试图去扣动它身上的“死亡开关”( kill switch),结果反被亚当扭住手腕、伤致骨折。面对查理的指责,亚当一边以肢体和暴力反抗,另一边则直接剖露心迹,坦言自己无可救药地爱上了米兰达。对于查理试图按下“死亡开关”的危险举动,亚当果断地给予自卫和反击。小说写道:“当我放下食指的时候,他在椅子上转过身,举起右手抓住我的手腕并猛握。越握越紧的时候,我跪下来努力不发出丝毫痛苦的呻吟,不让他从中得到任何的满足,甚至我听到了咔嚓的声音”(McEwan 119)。第二天,查理去医院做X 光检查,结果显示手腕骨折了,至少需要好几个月才能恢复。亚当警告查理从此以后不要再试图按下它身上的“死亡开关”,后来甚至自己启动程序,直接关闭了该开关。尽管亚当后来向查理表示了歉意,不过需要注意的是,它的致歉实际上成了它自我辩解的理由:第一,它不该和米兰达上床发生性关系,给查理带来了精神伤害,但否认这是自己的过错,因为它是受到了米兰达的邀请和命令。第二,它无法控制自己对米兰达的感情,因为自己无可救药地爱上了她。

就其属性而言,机器人不具有感情,更谈不上会滋生浪漫的爱情。对于亚当的告白,查理一方面认为这种言辞荒诞不经,另一方面怀疑亚当的程序是否出了问题。在查理后来与图灵的交谈中,图灵也坦言在所有第一批器人中,只有查理购买的亚当对人类产生了感情。机器人的程序主要是其中央处理器所接受到的信息与指令,也就是电子文本。只要没有产生爱情的电子文本,从原理上来说,亚当不会产生情感,更不会萌发爱情。查理当着亚当的面说出他的怀疑固然带有羞辱亚当的目的,但他实际上也指出了亚当之于米兰达的非自然情感,即“人类属性上不可能的情感”(Shang 451)。为了表达自己对米兰达的爱情,亚当近乎疯狂地给她写诗和背诗。根据叙述者的观察,亚当“已经写了2000 首俳句,背诵了一打,每首质量都相同,每首都献给米兰达”(McEwan 145)。根据亚当本人的自述,它无可救药地爱上了米兰达,因为它“被迫爱上她”(was made to love her),别无选择。在英文中,make 的被动语态不仅有“被迫”的含义,而且在字面意义上更是有“被制造出来”的意思。由此,我们不妨联想到之前查理邀请米兰达共同参与设计亚当性格的场景。也即是说,米兰达可能在此过程中设计了一个让亚当爱上自己的程序。

如果把亚当与米兰达之间的性爱关系作为一起伦理事件来看,就会发现这起事件的一个重要后果在于导致了伦理混乱。亚当与米兰达之间的关系不仅在于僭越了人类与机器人之间的界限,而且还有乱伦的性质。如前所述,米兰达是亚当的共有者,直接参与设计了亚当的性格参数。


吃饭的时候,我会提议。我大约设置了亚当一半的性格,然后给她链接和密码,让她选择设置另一半。我不会干涉,甚至不想知道她做了什么决定。她或许会受到她自身性格的影响:令人愉悦。她或许会制造一个她梦想中的男人:富有教益。亚当会像一个真人一样走进我们的生活,随着时间的流逝,他性格中细微的部分会通过一些事、一些人展现出来。在某种意义上,他就像我们的孩子。(McEwan 22)


特别值得注意的是,查理明确指出亚当就“像我们的孩子”(like our child)。在这种意义上说,查理和米兰达相当于亚当的父母,而亚当则相当于他们的孩子。就此而言,亚当与米兰达之间的性关系显然触犯了母子乱伦的伦理禁忌。对于这样的伦理混乱,亚当之前的解释是自己“没有选择”(have no choices)。如果从文学伦理学批评的角度来看,亚当违背伦理禁忌的原因在于其没有经历伦理选择、缺乏善恶观念的伦理意识。亚当既不是人类繁衍的产物,也不是由受精卵发育而成的胎儿,而是“电子学”和“人类学”的结晶,因此与人类有很大的不同。人类经历过自然选择、伦理选择的过程,最终成为一个具有善恶观念的人,而这一过程离不开脑文本的作用。用聂珍钊的话来说,“在伦理选择的过程中,人的伦理意识开始产生,善恶的观念逐渐形成,这都是脑文本发生作用的结果”(《脑文本和脑概念的形成机制与文学伦理学批评》33-34)。

在经历伦理选择之后,人开始具有善恶观念的伦理意识。这种伦理意识作为脑概念存在于人的脑文本之中。在文学伦理学批评看来,“所有的脑文本都是由脑概念组成的。脑概念从来源上说可以分为物象概念和抽象概念两类。脑概念是思维的工具,思维是对脑概念的理解和运用,运用脑概念进行思维即可得到思想,思想以脑文本为载体。脑概念组合过程的完成,意味着人的思维过程的结束,思维过程的结束产生思想,形成脑文本。脑文本是决定人的思想和行为的既定程序”(聂珍钊,《脑文本和脑概念的形成机制与文学伦理学批评》26)。机器人不具有这样的脑文本,它在计算机处理系统中只有相关信息和指令的电子文本,缺乏区别善恶观念的伦理意识。这是机器人在人类世界中遇到伦理问题时,无法做出恰当处理的一个根本原因。人是自然选择和伦理选择的产物,机器人是科学选择的产物。在这种意义上而言,科学选择产物的机器人与伦理选择产物的人之间的冲突实则隐喻了伦理选择与科学选择的冲突。

03

未成形的脑文本,抑或科学选择的失败

在《像我这样的机器》中,尽管数量众多的第一批机器人都成功关闭了“死亡开关”,但后来又大都纷纷主动选择启动自毁程序,结束了自己的生命。图灵将之解释为机器人对人类决定和人类思维的不解。他说:“我认为亚当、夏娃们的配置还没有好到可以理解人类的决定——我们的原则在情感场域被各种力量扭曲;我们各持偏见;我们自我欺骗;以及其他被记录下来的各种认知缺陷。很快,这些亚当、夏娃们就处于绝望的状态。他们不能够理解我们,因为我们也不能够理解我们自己。他们的学习程序还不能考虑到我们。如果我们都不理解自己的大脑,又如何可以设计他们的大脑,并且希望他们可以和我们一起快乐相处?”(McEwan 299)图灵的解释提到了一个最为关键的问题,即机器人对无法理解人类复杂认知的“大脑”(mind)的绝望。在关于大脑的复杂机制中,图灵提到了情感(emotion)、偏见(prejudice)、自我欺骗(self-delusion)等,但是对机器人而言最难以理解的则是人类世界的伦理问题。

在小说中,查理、米兰达和亚当之间的最大分歧和矛盾突出表现在亚当和他们在道德立场上的不同取位,这也是查理最终狠心举起铁锤砸向亚当,使其毁灭的最主要原因。他们之间冲突和矛盾的焦点是米兰达为自己好友玛利亚姆复仇这一事件。小说伊始,亚当就曾警告查理说米兰达是个说谎者。随着故事的展开,米兰达说谎及其谎言背后的缘由被一一披露。米兰达之前确实卷入了一宗官司,谎称自己被一个名叫科林奇的男孩强暴了,致使科林奇被判入狱。科林奇即将刑满释放时,扬言要谋杀米兰达。与其等待科林奇上门寻仇,亚当和查理决定主动出击,为保护米兰达而赶至科林奇的住所。在此过程中,米兰达道出了实情和原委。确如亚当所料,米兰达说了谎。科林奇没有强暴米兰达,但她在法庭上没有说出实情,诬告了他,原因是科林奇强暴了自己的好朋友、来自巴基斯坦的女孩玛利亚姆。遭到强暴后的玛利亚姆没有选择报警,因为她担心这样会严重影响她的家庭生活和家族名誉,但她也因此变得日渐忧郁和消沉,最终割腕自杀了。在他人看来,玛利亚姆是自杀身亡,怨不得别人,但米兰达知道,夺取她贞洁和生命的罪魁祸首是科林奇。因此,她故意让科林奇和自己一起参加派对,两人饮酒发生关系后,控告他强暴了自己,以赢得法官的同情,达到了最终将科林奇判刑入狱的目的。换言之,在被判入狱这起事件上,科林奇既无辜又罪有应得。无辜的是,他没有强暴米兰达,被判入狱纯属冤枉。罪有应得的是,他强暴了玛利亚姆并致其自杀身亡,被判入狱原本就是他应得的惩罚。

米兰达对科林奇采取的报复行为,涉及法律和伦理两个维度。从法律层面上来说,米兰达确实做了伪证和诬告,违背了法律,但是从道德层面上来说,她无疑伸张了正义,做了伦理正确的选择。换言之,米兰达的行为,违背法律但合乎伦理。鉴于米兰达行为涉及法律和道德的复杂情况,查理和亚当对之作出了截然不同的反应。查理为米兰达的勇敢所打动,认为她行为正当,值得肯定,由此更爱她。查理坦言:“她的隐密、退出和沉默,她的羞怯,她那种看上去比实际年龄大的感觉,她避免接触的倾向,甚至温柔的时刻,都是悲伤的形式。让我心疼的是她一个人承受了悲伤。我钦佩她的勇敢和复仇的勇气。这是一个危险的计划,她在实施的时候专注且不计后果。我更加爱她”(McEwan 164)。亚当与查理的反应大相径庭,它坚持认为米兰达行为不当。它利用自己精于搜集信息的能力,找到了科林奇的家庭住址。在科林奇的家中,它录下了米兰达和科林奇之间的谈话,并将之作为证据提交给了法庭。从法律层面上来说,亚当举证米兰达诬告,合乎法律,但是从道德层面上说,它将自己深爱的女人米兰达送入监狱,由此剥夺了她对男孩马克的领养权,违背了伦理。由此说来,亚当的行为也同样涉及法律与伦理两个维度,也同样存有悖论,即它的行为合法但却违背伦理。

两相对比,我们不难发现查理与米兰达之间有更多的共鸣,而他们与亚当之间则产生了无可调和的矛盾。从文学伦理学批评的角度来看,他们之间的认知差异主要源自人类的生物性脑文本和机器人具有处理器性质的电子文本之间的差异。图灵说:


我们创造了智能和具有自我意识的机器人,然后将它推到我们这个不完美的世界。机器人的心理通常是根据理性的线索,对他人有好感的标准设计的,这样的心理很快就会遭遇矛盾的飓风。我们一直生活在这些矛盾中,它们让我们疲倦。数百万人死于疾病,而我们知道如何治愈这些疾病。数百万人死于贫困,而我们有足够的办法。我们破坏生物圈,尽管我们知道这是我们唯一的家园。我们用核武器相互威胁,尽管我们知道它们的后果。我们爱有生命的物体,但是我们又允许物种的大面积灭绝。还有很多——种族灭绝,折磨,奴役,家庭谋杀,虐童,校园暴力,强奸和众多日常的暴行。我们一边生活,一边遭遇这些苦难,当找到幸福和爱情的时候,也不惊讶。人造人的大脑没有得到很好的防护。( McEwan 180 )


在图灵看来,机器人被带入一个并不完美的世界,不知道如何面对人类世界的诸多矛盾与问题,无法应变。细读之下,不难发现图灵所列举的关于人类世界矛盾的例子几乎都与伦理道德密切相关。譬如,我们明明知道有些疾病可以治愈,但仍有数以百万的人未获治愈;我们明明知道生物圈是我们唯一的家园,却在摧毁它;我们明明有足够多的钱和粮食,但是数百万人却因贫穷和饥饿而死。人类的大脑可以应对这些问题,是因为他们有随机应变的脑文本,而机器人没有。机器人只能按照既定的电子文本中储存的程序和指令来作出判断。根据文学伦理学批评的观点,“脑文本决定人的生活方式和道德行为,决定人的存在,决定人的本质。一个人的思想和行为是由脑文本决定的,一个人的伦理和道德也是由脑文本决定的”(聂珍钊,《脑文本和脑概念的形成机制与文学伦理学批评》33)。由于缺乏处理生活方式和道德行为的脑文本,机器人亚当在面对道德问题时,显得无所适从。

如前指出,米兰达对科林奇的指控,涉及法律与道德之间的矛盾与冲突。面对这样的困境,亚当只从法律角度做出判断和处理,而没有从伦理角度入手。换言之,它仅仅知道如何解决法律问题,而不知道如何理解和应对道德问题。亚当在同米兰达争辩时,既无视这起事件的伦理维度,同时又近乎偏执地强调坚持原则。它从法律层面上批评米兰达的复仇行为,坚持认为米兰达要接受法律的制裁,无视她即将要领养孤儿马克这一重要情况,声称“原则是原则”(The principle stands)(McEwan 276)。米兰达入狱的后果是,一旦她有了刑事记录,就会被法庭剥夺领养权,无疑会给马克带来巨大的情感伤害。查理提醒亚当想一想受害者玛利亚姆,让它注意米兰达说谎是为了伸张正义,强调“真相不是一切”(truth isn’t always everything), 而亚当毫不留情地反驳道:“真相就是一切”(truth is everything)(277)。亚当坚持真相,拒绝谎言。由此,我们不妨联系小说扉页上鲁德亚德·吉卜林(Rudyard Kipling )的诗行:“但请记住,根据我们生存的法则/ 我们生来就不理解谎言”(But remember, please, the Law by which we live/We are not built to comprehend a lie)。实际上,机器人既无法理解人类的谎言,也不会说谎。图灵说,“我们还不知道如何教机器人去说谎”(We don’t yet know how to teach machines to lie)(303)。笔者以为,机器人无法理解谎言的根本原因不是技术问题,而是谎言背后所涵盖的伦理问题,即尽管谎言有时偏离了事实真相,但可能反而更加接近伦理真相。

放眼麦克尤恩的其他作品,法律与道德之间的冲突,以及人物之于两者之间的两难选择始终都是一个重要命题。譬如,在小说《儿童法案》(The Children Act, 2014 )中,法官菲奥娜·迈厄之于所有案件的判断即是如此。③在《像我这样的机器》中,亚当所强调的真相,在事实层面上无疑会将科林奇强暴玛利亚姆、致其自杀的事件曝光。这一行为的正面效果固然是将科林奇绳之以法、收监入狱,而其负面效果则会直接导致米兰达入狱、导致她被剥夺领养权。从道德层面上来说,也会让米兰达背弃自己对玛利亚姆许下的为其被强暴一事保密的诺言,同时也会对玛利亚姆的家人造成二次伤害。也即是说,因为亚当,米兰达违背了自己对玛利亚姆的承诺,将她受辱一事放到了聚光灯下,沦为公众的谈资。在这种意义上,亚当侵犯了查理和米兰达的生活,僭越了他们的道德底线。

查理容忍过亚当和自己女友发生性关系的情感背叛,也容忍过亚当把在网络上挣来的钱全部拿走的经济背叛,但无法容忍亚当一味秉持原则、无视道德底线的行为。在沟通无果,忍无可忍之下,查理决定毁掉亚当:“他是我买的,也由我来摧毁。我稍微迟疑了一会。再迟疑半秒种,他就会抓住我的胳膊,因为在锤子落下的时候,他已经在转身了。我可能从米兰达的眼睛里看到了我的影子。我双手握锤,用尽全力,砸在他头上。锤子砸下去发出的声音,并不是硬塑料或金属的响声,而是沉闷的砰的一声,就像骨头发出的声音一样”(McEwan 278)。查理果断将重锤砸向亚当,结束了它的生命。米兰达默许了查理的这一行为,尽管在锤子砸下去的瞬间,她感觉到一丝恐惧与害怕。需要指出的是,查理的这一行为也涉及在人工智能时代人类即将面临的一系列亟待回答的其他问题。譬如,“机器人是否有生命?”“人类是否有权利来剥夺机器人的生命?”“人类是否要为谋杀机器人而担负责任?”这些问题也是图灵在得知查理用锤子结束了亚当生命时所质问他的。图灵直接说:“我希望有一天,你用锤子对亚当所做的行为将构成一项重罪”(McEwan 303)。在被查理用锤子砸中后,亚当并没有立即死去,而是对自己死后的事项做了类似遗言性质的交代与安排。比如,它建议查理和米兰达不要让机器人公司回收自己的躯体,而是把自己的躯体藏起来,将之连同自己的大脑全部交给图灵处理。

亚当的临终告白引出了小说的题名,它断断续续地说:


米兰达,让我最后一次再说我爱你,谢谢你。查理、米兰达,我第一个也最亲密的朋友……我的整个存在是被储存在别的地方……所以我知道我总会记得……希望你们会听……最后一首十七音节的诗歌。这首诗歌需要感谢菲利普·拉金。该诗不是关于树叶和树。它是关于像我一样的机器人和像你们一样的人类,以及我们共同的未来……即将来临的悲伤。它将要发生的。经过一段时间会得到提高……我们会超越你们……比你们活得久……正当我们爱上你们的时候。相信我,这些诗句表达的不是胜利……而仅仅是遗憾。(279)


那么亚当口中的诗歌是什么呢?在合眼之前,它一口气将它们念了出来:“我们的树叶落了/ 春天来时,我们会重新发芽/ 但是你,啊,倒下就倒下了”(280)。亚当的临终诗戏仿了英国诗人菲利普·拉金(Philip Larkin)的名篇《树》( “Trees” )。拉金的作品描述了树叶年年变绿的自然规律,同时也哀叹人类时光易老、人生易逝。按照亚当的说法,这三行诗句不是关于树叶和树的关系,而是关于机器人和人类。从这个角度来说,亚当的诗行是为了表达一种遗憾,即它的生命可以重来,而人类的生命却只有一次,它以电子文本为主的大脑被保存下来,换一副躯壳就可以重新开始,而查理和米兰达的生命却只有一次。在它重新开始生命,重回人类世界的时候,查理和米兰达都已经不在了。在这种意义上,它所表达的不是机器人的胜利,而是表达了它个人作为他们朋友的遗憾。或许,这就是它所说的“悲伤”(sadness)。

无论亚当未来是否会换上一副躯壳,带着原先的、改进过的电子文本的大脑重新回到人类世界,它在小说《像我这样的机器》中终究还是被查理摧毁了,而且遭遇不幸和毁灭的最主要原因在于它对人类伦理道德的不解和僭越。论及脑文本的伦理价值,聂珍钊指出:“文学教诲功能的实现是通过文学的脑文本转换实现的〔……〕学习文学的目的,是为了获取我们所需要的脑文本”(《脑文本和脑概念的形成机制与文学伦理学批评》33)。尽管在小说中,亚当充分发挥机器深度学习的能力,大量阅读文学作品,试图从中获得伦理教诲与道德启示,但它终究没有形成用以指导自己行动实践的脑文本。在这种意义上来说,亚当的毁灭明示了机器人之于人类道德生活介入的失败,同时也揭示了具有伦理意识的脑文本的无可替代性,即便以人工智能为幌子的电子文本也无法做到这一点。


麦克尤恩研究专家多米尼克·黑德(Dominic Head)在最新出版的《剑桥伊恩·麦克尤恩指南》(The Cambridge Companion to Ian McEwan, 2019)中盛赞麦氏之于小说这一独特文学样式的贡献。黑德特别指出:“麦克尤恩扩展了我们之于小说能量的理解,尤其是小说话语可以与科学话语横穿交叉的不同方式”(Head 1)。若要考察作家是否具备在小说话语与科学话语之间横穿交叉的能力,科幻小说无疑是一块重要的试金石。论及科幻小说的价值,布莱恩·麦克黑尔(Brian McHale)曾撰文指出:“文学系统一个最强大最有价值的产品是它反映了现实的模式〔……〕文学能够引发思维实验, 而其目的不仅是反映现实的模式(即能被认识的模式),而且还在于为现实创造模式(即全新的认知)〔……〕科幻小说作为一种文学样式, 虽然还不为人们普遍看好, 却突显出对世界的构建。科幻小说构建世界首先基于某种‘如果……又怎样’的前提, 而后在此基础上进行不同程度的系统的理性的推断”(McHale 9)。在麦克黑尔看来,科幻小说的主要价值在于促使我们思考“如果……又怎样?”(what if)这个问题。仿照这样的逻辑,《像我这样的机器》所提出的问题则是“如果人造人进入人类世界又怎样?”麦克尤恩以机器人亚当与人类查理、米兰达在共同生活过程中所发生的矛盾为例,揭示了科学选择和伦理选择之间的冲突,隐喻了具有伦理意识的脑文本在人类生活的无可替代性。即便身处人工智能时代,我们也不能指望机器人来帮助我们解决所有的问题,尤其是伦理道德领域的问题。无论是经过自然选择、伦理选择的人,还是经过科学选择的机器人都不能僭越人类社会的道德底线,因为从根本上来说,“人是一种伦理的存在”(聂珍钊,《文学伦理批评:伦理选择与斯芬克斯因子》8)。《像我这样的机器》也由此回应了其作为科幻小说所投射的文学伦理价值,即世界上“伟大的文学作品清晰地展示出我们知道该如何行善”(McEwan 87)。用文学伦理学批评的话来说,文学的一个重要任务就是“为人类的文明进步提供经验和教诲”(聂珍钊,《文学伦理学批评导论》13)。


责任编辑:刘兮颖


此文原载于《外国文学研究》2019年第5期

由于公众号篇幅所限,原文注解和引用文献省略


往期精彩文章回顾:

目录 |《外国文学研究》2019年第5期

《外国文学研究》2019年第5期主要论文摘要

张连桥 聂珍钊 | 文学伦理学批评与道德哲学:兼论在中国召开的第24 届世界哲学大会——聂珍钊教授访谈录

苏晖 | 学术影响力与国际话语权建构:文学伦理学批评十五年发展历程回顾

吴笛 | 论布尔加科夫“魔幻三部曲”中的科技伦理与科学选择

END

关注《外国文学研究》官方微信平台

《外国文学研究》

官方微信平台

投稿网址:https://fls.ccnu.edu.cn

联系电话:027-67866042

联系邮箱:wwyj@mail.ccnu.edu.cn

版权所有。欢迎个人转发,媒体转载请联系授权


: . Video Mini Program Like ,轻点两下取消赞 Wow ,轻点两下取消在看

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存