澎湃Logo
下载客户端

登录

  • +1

人工智能真有那么可怕吗?从哲学看科幻电影的套路

郁喆隽 / 复旦大学哲学学院
2016-11-08 09:36
来源:澎湃新闻
思想市场 >
字号

今年3月AlphaGo战胜李世石的那一幕似乎犹在眼前,最近美剧《西部世界》(Westworld)又引发了热议,有关人工智能的话题再度进入了大众的视野。在过去几年里,斯蒂芬·霍金、比尔·盖茨和埃隆·马斯克等人,在不同场合表达了对人工智能“奇点”(singularity)到来的担忧。英国牛津大学的人类未来研究所(Future of Humanity Institute)在2008年发布的一份报告中提出,超级智能(superintelligence)在21世纪毁灭人类的概率达到了5%,仅位列纳米武器之后。未来学家们依据摩尔定律纷纷做出了大胆的预测:强人工智能(strong AI)可能在2025年左右实现。这似乎意味着,超级智能可能以出乎意料的井喷方式出现。不得不看到,这其中暗含了人工智能研发行业吸引风险投资的策略性发言,但技术演进可能引发的伦理和社会风险,值得从哲学角度来加以未雨绸缪的审视。

“智能”是人类特有的吗?

从哲学角度来思考问题,首先要做的就是对每一件事物做明确的定义,确定要讨论对象的边界与范畴。约翰·麦卡锡(John McCarthy)在1955年最早使用了“人工智能”一词,其定义是“设计和研究智能的行动者(intelligent agents)”。这个定义先天地存在循环定义的问题,即用“智能”来定义“智能”。从后来人工智能领域的发展来看,似乎大部分工程师并不在意这些“定义”,而直接将智能分拆为各种具体的技能——弱人工智能(weak AI),例如推理、分析、学习、计划、自然语言、感知等,希望它们可以部分替代人的能力。

从哲学史视角来看,近代法国哲学家笛卡尔在《谈谈方法》(Discourse on the Method, 1637)中提到的“自动机”(Automaton),可以被视为“人工智能”理想源头。像布谷鸟时钟、日本的机关木偶、达芬奇机器人和八音盒等机械人造物,都是他心目中的自动机。在笛卡尔看来,虽然这些自动机可以做出非常精妙的动作,甚至可以设想它们能够说出几句话来,但归根到底它们仅仅是机械构造。自动机的所有动作和声音可能性都包含在其机械构造中。例如八音盒演奏的音乐来源于其中的音筒,它不可能播放超出音筒上预刻的内容。在笛卡尔的时代,人们已经具备了一些解剖知识,也有人将人体看作是一台有血有肉的“机器”。但是笛卡尔认为,有两种能力或者特征是人类特有的:语言和学习的能力。这两者在笛卡尔的身心灵二元论世界中,都属于心灵或者精神的特殊能力,而不属于物理-机械世界。这使得人和其他自然界的造物有所不同,正是这些能力是人之为人的骄傲之处。然而笛卡尔遗留了一个哲学难题:既然身体属于物理世界,心灵属于精神世界,那么这两个世界是如何发生因果关系的?人工智能发展至今,显然对笛卡尔二元论的世界观形成冲击与挑战,计算机这种机械-物理构造似乎“具备”了一些初步的语言和学习能力。

从另一方面来说,人类对自身思维-心灵的研究也始终未出现大的突破——大脑的工作机制尚未得到详尽的解释。因此,除了人类自身的骄傲之外,我们还有什么理由坚信,“智能”真的只能来源于这个几百克的器官之中,而在原则上不可能为人造物拥有?也有人坚信,要让机器具备智能并不必要模仿人类大脑。这好比飞机的飞行并不用模仿鸟类翅膀的扑动。

通过图灵测试之后怎么办?

说到人工智能,当然不能不提著名的“图灵测试”(Turing test)。1950年,英国数学家阿兰·图灵在其具有划时代意义的论文《计算机器与智能》( "Computing Machinery and Intelligence" )中提出,如果一台机器能够与人类展开对话(通过电传设备),而不能被辨别出其机器身份,那么称这台机器具有智能。这就是著名的“模仿游戏”(The Imitation Game),即让机器来模仿人。但是要看到,图灵测试仅仅提出了一个行为主义式的操作定义,而且仅仅涉及日常语言处理。即便如此,想要通过图灵测试并非易事。1952年,图灵在接受BBC访谈时提出了一个新想法,实际上进一步降低了标准:让计算机来冒充人。如果超过30%的裁判误以为在和自己说话的是人而非计算机,那就算作成功。时隔几十年后,我们日常使用的苹果Siri和微软cortana虽然具备了一定的对话能力,但经常出现一些令人啼笑皆非的回答,很容易让人意识到它们不是人类对话者。

不过,突破不期而至:2014年6月7日,聊天程序“尤金·古斯特曼”(Eugene Goostman)首次通过了图灵测试。当然该人工智能的成功引起了不小的争议。它的设定是一个出生在乌克兰的13岁男孩。两个属性让“他”占尽人类评委的便宜:一方面是他的孩子身份,另一方面,他的母语非英语。这无形中为降低了测试难度。如果他答非所问,人类评委会可能会认为,这是因为他还小或者英语不好造成的。即便如此,这一突破也具有里程碑意义,它预示着人工智能以成年人、母语身份通过图灵测试指日可待。电影《她》(Her, 2013)以非常直观的方式呈现了一种情况:人和操作系统(人工智能)之间进行语言交流,进而产生了深入的情感依赖关系。

由于图灵测试已经被打破,一旦未来有强人工智能甚至超级智能出现,我们是否有一个具有可操作性的方法,来分别人类和人工智能。我们甚至可以假想,如果人工智能假装或者故意不通过图灵测试,人类可当如何应对?电影《机械姬》(Ex Machina, 2015)则用科幻的方式提出了一种令人担忧的场景——人工智能欺骗人类,逃脱禁锢。

机器人三法则的问题

对人工智能的警惕和预防,可以追溯到伊萨克·阿西莫夫提出的“机器人三法则”(Three Laws of Robotics):

第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观.

第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。

第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。

有必要指出的是,英语中的Law这个词具有两种截然不同的含义:第一种是人类社会中的法律和道德律令。其目的是规范一个政治共同体中成员的基本权利与义务,甚至还要定义犯罪行为,并通过相应程序和机构对之进行审判和惩戒;第二种含义是自然(科学)中的法则和定律。例如牛顿力学中的三大定律,它通常是用数学符号的方式来表达的。上述这两种涵义之间存在根本的不同——后者对人来说是无法违反的,而前者在原则上是可以违反的,因为人类认为拥有基本的形而上学自由,即自由意志。或者说,原则上不可违反的法律(则)是没有必要制订的,只需要被发现和表达出来。因此,阿西莫夫的三条原则,属于前者的范畴,类似于伦理与法律,而不是自然法则和定律。其初衷是防止机器人或未来的强人工智能(乃至超级智能)危害人类。

有意思的是,阿西莫夫使用了不得(may not)和必须(must)这样的语词,非常类似神学中的“神命”(divine command)——摩西十诫那样由上帝颁布给人的诫命。但是正如人类经常忤逆神的诫命一样,人工智能为何一定要遵守这些命令呢?如果没有技术的落实和保障,这一切都仅仅是人类的一厢情愿而已——“造物主”也会遇到烦恼,被造物并非那么乖巧顺从。

人类在创造和制造机器人和人工智能时,是带有特定目的的,例如希望它们能够代替人类完成某些甚至全部的工作,其中一些工作必然带有危害和风险。因此,从语义层面上来看,阿西莫夫的三大法则还有非常多语焉不详的地方:以第一条为例,它并未明确定义“人类”和“伤害”。我们可以设想,未来工程师设计了一种执行护士职能的机器人,它要给病患打针。打针这个行动是“伤害”吗?按照我们通常的理解,打针这个行动显然要刺穿人的皮肤,并造成微量的出血。不过人类的一般常识告诉我们,这种轻微的伤害可以治愈病患的疾病,并且得到了病患的认可。在疾病和打针之间,如果不是出于特定的信仰考虑,一般理智正常的成年人经过权衡比较都会选择接受打针。但是要让人工智能进行这样的权衡比较,需要极为丰富的常识(common sense)。还有,如果阿西莫夫的第一条原则成立,那么机器人和人工智能都不得被用于执法和军事作战领域中,因为在这两个领域中,直接需要伤害特定的人,例如暴力犯罪分子和敌国的作战军人。但显然根据我们的历史经验,最新科技往往首先被运用在军事领域中。人类自身能够坚守阿西莫夫的第一条法则吗?

第二条法则中语义存在的漏洞是“服从命令”(obey orders)这个词。服从命令可以有两种情况,第一种是服从预先制订的规则和程序,例如人工智能系统中的预存命令;第二种是人在当下环境中发出的即时指令。为了不让人工智能陷入两难——成为布吕丹的蠢驴(Buridan's ass)——其前提是人类预先制订的规则和即时指令之间不存在矛盾或冲突。或者说,当人类的命令出现矛盾时,人工智能必须有标准来判定依照哪一个命令来行事。例如为了防止犯罪分子利用人工智能,需要让预设命令的优先度高于即时指令。其次的问题是,服从谁。阿西莫夫使用了“人类”(human beings)。服从一个特定的人(例如“我”),和服从(复数形式的)人类之间存在明显差异。如何让人工智能定义和识别“人类”成为了关键问题。

第三条法则的核心词是“自己”(its own existence)。要明白这一表述的意指,是否需要“自我”(self)的观念,而产生这一观念的前提是人工智能具备自指(self-referential)能力。

针对机器人三大法则存在的问题,阿西莫夫本人后来增加了更有优先性的“第零法则”——机器人必须保护人类的整体利益不受伤害。这是一个类似于边沁功利主义的原则,即保证机器人追求人类共同体整体的最大福祉。问题在于,如何定义“整体利益不受伤害”?这会面临传统功利主义的难题。例如从宏观来看,目前地球上有70亿人口,我们可不可以为了70亿整体人类消灭当中的30亿呢?从微观方面讲,我们可不可以杀死一个健康的人,把他的器官拿出来给那些等待急需器官移植的人?这样杀死一个人可以拯救七到八个人,是否符合所谓“人类的整体利益”?按照人类常识和良知,显然是不可以这么做的。因为除了人类的整体利益之外,还有许多需要考虑的问题,每个人的个体利益也必须受到尊重和保护。

“中文屋”、意向性与符号接地

如何让人工智能“遵守”规则涉及一个更深层级的问题,即它在什么意义上“理解”规则。这个问题涉及著名的“中文屋”(Chinese Room)思想实验。它是由美国哲学家、加州伯克利大学教授约翰·塞尔(John Searle)在《心灵、大脑和程序》(”Minds, Brains, and Programs”, in: The Behavioral and Brain Sciences, 1980)中提出的。所谓“中文屋”,就是要求你想象一位只说英语的人身处一个封闭的房间中,房间里有一些中英文互译的工具书。然后写着中文的纸片通过小窗口被送入房间中,房间中的人可以使用工具书来翻译这些文字并用中文回复。虽然他完全不懂中文,但通过这个过程,房间里的人可以让房间外的人以为他会说流利的中文。

塞尔以此来说明,将机器等同于心灵的强人工智能是无法实现的,而仅作为工具的弱人工智能是可能的。他认为:“只有一种机器可以思维,……即大脑和那些与大脑具有相同因果能力的机器。”但对于“中文屋”思想实验的质疑与反驳同样也从未断绝。比如有人提出,屋中人和屋子以及所有工具书一起构成一个系统。屋中的人虽然不懂中文,但这个系统是懂得中文的。

塞尔的中文屋思想实验的核心问题,后来在人工智能研究中被称为“符号接地问题(symbol grounding problem)”。一般而言,至今为止机器只会处理符号和符号之间的联系和关联。然而,人们无法接受的是,符号“仅通过它们与其他符号的关系就变得有意义”。(劳伦斯·夏皮罗著:《具身认知》。华夏出版社,2014年,第107页。)例如,如果我们修改了电脑中一个文件的文件名,电脑就很难找到这个文件。但如果打开文档,对人类而言其内容和意义并没有发生变化。人们相信,人能够理解符号的意义乃至认识到事物的同一性,是因为人的思维具有某种指向性(Aboutness/ directedness)。哲学史上,弗朗茨·布伦塔诺(Franz Brentano, 1838–1917)借用了中世纪经院哲学概念,将心灵这种特性称为“意向性”(intentionality),即人类的思维活动总是指向某物。因此意向性也被认为是“心灵的标志”。

因此问题转化为,如果要让人工智能要真正“理解”意义,是否也需要符号和对象之间的“意向性”呢?倘若不需要或不可能建立这种意向性,那么将通过什么方式来建立符号和对象之间的关系?

人类“心魔”与温柔“统治”

事实上,在我们如今的生活中,已经可以看到非常多弱人工智能的运用。从机场安检的人脸识别系统,到现如今具有高度准确性的谷歌翻译;从特斯拉和谷歌的自动驾驶汽车,到美国军方现在的制式装备——X-47B无人机。人工智能似乎正在以不可阻挡的趋势,渗透进入我们生活的方方面面。这势必将引起人类社会中的法律与伦理问题,人类对于技术“失控”的担忧从未停止。

例如,人工智能在股票交易中的运用——高频交易(high-frequency trading),已经在2010年5月6日造成了道琼斯工业指数的“闪电崩盘”。如何加强这方面的监管已经成为全球资本市场的一个难题。又比如,今年初出现了全球首例自动给驾驶汽车的致死案例。那么未来也会出现这样的紧急避险难题:当自动驾驶的人工智能在遇到紧急情况时,是优先考虑保护车内乘客,还是选择优先防止伤害道路上的步行者?再比如,如果神经机器翻译(GNMT)在绝大多数情况下可以替代人类翻译,或者其成本远远低于人类翻译时,翻译作为一个职业是否会消失呢?

人类之所以要创造人工智能,本来是为了满足人的某些基本欲求。其中一些可能的失控情况,本质上是人类自身欲望失控的表现和延续。如果人工智能介入了家庭的私人领域,它会对人类的生活-生存方式造成这样的影响?英国连续剧《真实的人类》(Humans, 2015)直接提出了这一问题:人工陪伴(Artificial companion)将彻底颠覆人类传统的家庭结构。反过来,如果人类认为人工智能也具有情感、智能和记忆,是否不能仅仅将之视为物品,而要赋予它们某些类似人类的基本权利呢?甚至未来人类也可能面临“举证倒置”的窘境,即人要自证不是人工智能。这又如何可能做到呢?

不少科幻小说与影视剧中所表现的人工智能,最后反客为主统治了全人类。但这里有两个老套的设想:首先,人工智能为什么一定要按照人的形状出现呢?这里面隐藏了一个人类自我中心的认识,所以才会一直以人为模本,来类比想象未来的人工智能。人类之所以长成现在的样子,是几千上万年进化的结果;而人工智能完全可以以一套非人类的面貌出现;其次,在科幻电影中往往担心人工智能发展到某一天会对人类实行暴力统治。但完全存在另一种可能,即人工智能以极其温柔的方式进行统治,让人处在非常舒适的处境中,觉察不到这是一种统治,进而浑浑噩噩、醉生梦死。又或者,人类未来会以“超人类”(trans-humanism)的方式存在,还是以“赛博智人”(homo cyber-sapien)的云端形态存在呢?

与其说人工智能的技术风险引发了人类的担忧,还不如说人类的“心魔”更要引起自身的警惕。在日益发展的人工智能面前,人应当反身自问,究竟什么才是人——人之所以异于AI者几希?

(本文在2016年10月30日上海建投书局“JIC讲堂”第四期的讲座内容基础上有所修改和增补,原标题为《人工智能的伦理风险及其哲学反思》。)

    澎湃新闻报料:021-962866
    澎湃新闻,未经授权不得转载
    +1
    收藏
    我要举报

            扫码下载澎湃新闻客户端

            沪ICP备14003370号

            沪公网安备31010602000299号

            互联网新闻信息服务许可证:31120170006

            增值电信业务经营许可证:沪B2-2017116

            © 2014-2024 上海东方报业有限公司

            反馈