澎湃Logo
下载客户端

登录

  • +1

AlphaGo没有改变历史,可我们应如何与机器人相处

仇勇
2016-03-10 18:24
来源:澎湃新闻
翻书党 >
字号

时间开始了吗?

AlphaGo在首局战胜李世石称不上改变历史。我认同尼古拉斯•卡尔在《玻璃笼子》一书中写的:“机器人自发开出的第一枪将震惊全世界,它将改变战争,甚至可能彻底改变这个社会。”

因为那将意味着,机器人将拥有“道德体系”,能够作出道德判断,并决定下一步行动。一如美剧中常见的情形:当无人机飞临目标上空,发现目标人物和平民在一起,远在华盛顿的无人机的操作员和指挥者有可能发出不攻击的决定。如果无人机可以根据算法自主决定是否攻击,它会按照哪项规则?1、若可能伤及平民绝对不攻击;2、若平民伤亡在5人以下可攻击;3、考虑到目标人物所造成的恐怖袭击后果和为此机会所付出的努力,格杀勿论……

人类道德的迷人之处就在于,我们能够在复杂情形下做出不一定是“最优解”的判断和决定;而机器人则只会以效率、收益比为先。

当然,我理解AlphaGo首胜李世石所引发的那种普遍的惋惜情绪,它使得一项原本属于人类的顶级智慧活动变得让人更加绝望了:我们本来努力好多年都不一定能赶上李世石,今后,面对机器人更赢不了了。

如果机器人不犯错、不超时、不会拉肚子,那么与之对弈,就像在电脑上答题考试一样无趣吧。

但借由这场对局,我们不妨来说一说人工智能和机器人崛起的话题——本文可看作是《玻璃笼子》一书的读后感。

到底谁需要人类?

这是一个严肃的问题。在一个效率为先、追求无差错和绝对控制的系统里,人的角色越来越成为整个系统里最薄弱的部分。人的注意力会游移,会犯错,会反应迟钝,会忘记操作手册和规程……在类似无人驾驶汽车和自动巡航的飞机上,人其实已经从操作员变成观察员,还将进一步变成乘客,直至完全被排除在操作系统之外。

这样,我们会更开心吗?

不一定。在认知-决策-行为-反馈的循环链中,我们把越来越多枯燥、麻烦的工作交给机器,但却让我们与真实世界隔膜。

谷歌为了让搜索更懂你,做了无数算法优化的努力,比如词汇联想,比如未来的问答式搜索。但谷歌高级搜索工程师阿米特•辛格尔告诉卡尔:“事实上,机器越精准,我们的问题越愚蠢。”

由于把认知世界这件事交给了机器,人类的大脑反而在某种程度上退化了。

认知学家唐纳德•诺曼说:社会掉进了以机器为中心的生活漩涡,人们被迫扮演辅助者的角色,我们最不擅长的就是这个了。更糟糕的是,以机器为中心的观点将人类同机器相比,认为人类不够资格,不能胜任严格、重复、精确的任务。

无论是仪表盘、智能手机还是GPS,它们上面搭载的系统都最终把我们同环境隔离开来。导向标识系统的自动性使人们不能再“在穿梭的过程中感受这个世界”。

比如,传统地图为我们提供背景环境。我们能对一个地区有总体的认识,需要自己找出所在位置,然后制定计划或在脑中设想到达下一站的最佳路径。是的,纸质地图需要我们费些工夫——好的工具总是这样。脑力劳动有助于大脑对某一地区形成自己的认知地图。

苏格兰阿伯丁大学的人类学家蒂姆•英戈尔德对徒步和借助交通运输工具进行了对比,后者本质上是以目的地为导向。与其说是沿着生命的轨迹去发现的过程,不如说仅仅是“人和货物从一个地点到另一个地点的过程,基本属性没有受到任何影响”。身体是交通工具,人是自己身体里的乘客。

事实上,永不迷路是一种错位的生活状态。如果永远也不必担心身在何处,那么你也永远不需要知道你现在的位置。我们生活在一种依赖的状态下,生活在手机和应用程序的牢笼里。

由此,假如许多工作不再需要人类参与,到底谁还需要人类?

道德能否完美地转化为软件代码?

会下棋的机器人不可怕,会扫地、会吸尘、会割草的机器人可能更可怕。一旦割草机器人开始工作,它会无情地把杂草和昆虫都杀死。

但人类的选择并非皆如此。

犹如经典的选择困境所展示的那样,当炸弹快爆炸了,杀死一个人有可能挽救千万人,谁有权下命令消灭这个人?这是美剧《24小时》每一集都在展示的道德选择困境。

机器人会怎样计算呢?

是否为机器人建立道德体系?

道德能否封装为软件,以此给予机器人以自主意识?

算法消毒剂

尼古拉斯•卡尔在《玻璃笼子》里举了谷歌地图的例子:“谷歌地图,用算法消毒剂清理了一座城市所具有的各种传染性。看待一座城市的最重要的方式消失了:不仅仅是跟朋友在一起,而且是与一大群不同的陌生人一起分享公共空间。在谷歌的世界里,公共空间只是横在你家房子与你想去的餐馆之间的东西。”

虽然互联网体现了便利性高于一切的原则,但自动化却消除了人类社会中一切低效率但却迷人的部分。卡尔还举了Facebook的例子,它的高效率进化,是让人与人的关系也能够用算法来排序。

但想想看,婚介这样的事,能够依赖算法速成吗?我们选择配偶,是无法通过对其社会地位、身高、财产收入和其它物质化内容进行权重计算的吧?

机器的进化,一直以来的逻辑就是创造社会关系和工作关系中的“无摩擦状态”,即让我们生活、工作得更舒适,更便捷,不用多考虑复杂的选择。

人与机器:谁是谁的奴隶?

卡尔在《玻璃笼子》一书里认为,我们过去的认知中,把机器人当作奴隶的一种,妨碍了我们正确地认知两者之间的关系。经典的论述比如阿西莫夫的机器人三原则,让机器人永远效忠于人类。事实上,“机器人”这个词1920年由一位科幻小说家创造,来源于捷克语“Robota”,即“奴役”的意思。

而在无数有关未来机器人叛乱的电影中,又都在揣想机器人奴役人类的情景。

也许,我们应该从人类辞典中抹去“奴役”一词?

亚里士多德在《政治学》一书就表述,奴隶和工具从本质上来说是相同的。奴隶,对奴隶主来说,不仅是工具,还是财产。

进入工业时代,奴役关系换了一种形式。人在某种程度上,被流水线所奴役。

亚当•斯密:“他们一辈子都在重复一些简单的操作,这些操作功能通常是相同的或非常类似的,工人没有机会理解自己的工作,也没有机会锻炼创造力,在面对前所未有的困难时寻找应争策略。”“因此,他们自然而然地就丧失了这些能力,并且大多数人会变得极其愚笨、无知。”斯密认为,技能退化是不幸的,但这也是工厂生产效率提高不可避免的副产品。

得益于泰勒的科学管理哲学,在工业领域内,工人的技能退化就已经非常明显了。泰勒认为,传统工作方式最大的缺点在于赋予个人太多主动性和空间。只有遵照“规则、定律和惯例”,实现工作流程的标准化,才能达到最优效率,而机器的设计恰恰体现了这一点。

由于大规模制造的分工协作,使得工人成为流水线的一部分,每个人即使熟练于其中一个制作环节,却对整体的工艺不甚了了,也使得机器换人成为可能。

由是观之,机器人更是被我们天然地认为就是人类的奴隶。

在我们看来,机器人就是:非常实用、高产,完全没有好奇心、想象力和物欲。

重新发明工作

卡尔在《玻璃笼子》一书里认为,我们对自动化、人工智能的迷恋,部分是因为我们总认为休闲比工作更让人向往,人类总是倾向于摆脱繁重的劳动。但正像印度教史诗《薄伽梵歌》那一句:“人不应为了荣誉和外部赞誉而工作,因为工作本身就是奖赏。”

如果把机器人仅视为工具,而不是全部,可能有助于我们重新看待什么是工作本身。

机器的确能开山凿石,能够从亿万数据里发现基因序列,也能在围棋上战胜人类,但却不能替代人的创造力和想象力本身。

人类的知识分为两类:隐性知识和显性知识。隐性知识,有时也称作程序性知识,是指我们不用思考就能完成的事情。我们对情势的估计和快速判断能力都来自于隐性知识这个模糊的领域。我们大多数富有创造性与艺术感的技能也寄居于此。

显性知识,也称为陈述性知识,是指你能够写下来的事情。

卡尔认为,人类许多与生俱来的才能是这两种知识的融合。但是,这种模糊融合好像恰恰指出了自动化的局限性,并且反过来证明了人类的独特之处。计算机无法完成的复杂任务除了驾驶,还有教学和医疗诊断,这些都需要隐性知识。

所以,现有的工作中,的确大部分只运用到“显性知识”的部分,将被机器取代。我相信即使奇点到来,人类还会发明出新的更能激发潜能、创造力的工作,那将是对我们自己的最好的奖赏。

    澎湃新闻报料:021-962866
    澎湃新闻,未经授权不得转载
    +1
    收藏
    我要举报

            扫码下载澎湃新闻客户端

            沪ICP备14003370号

            沪公网安备31010602000299号

            互联网新闻信息服务许可证:31120170006

            增值电信业务经营许可证:沪B2-2017116

            © 2014-2024 上海东方报业有限公司

            反馈