探索与争鸣|郑戈:如果人工智能全面使用,70%律师会失业

郑戈/上海交通大学凯原法学院教授

2017-09-11 15:05

字号
上海交通大学凯原法学院教授郑戈  本文图片均来自探索与争鸣杂志微信公号
今年年初,欧洲议会提交给欧盟委员会一份报告提出,鉴于基于人工智能的机器人日渐进入人们的日常生活,并且注定会在给人带来便利的同时带来一定的损害,而且,这种不仅有“手脚”还有“大脑”的机器人有可能具有独立的“判断能力”,所以需要在自然人和法人之外,另外增加一个法律主体,叫“电子人”。这个立法过程现在正在进行,可以预期的是,欧盟在不久的将来就会出台相关规则。从这个话题延伸开去,我们可以看到欧洲总体上对人工智能的危害性考虑比较多,而且对“机器人”做了拟人化的理解。这种思路在人工智能领域可谓由来已久。
一、法律与人工智能关系紧密
在我看来,法律和人工智能的关系是非常紧密的,著名科学家和科幻小说作家阿西莫夫早在1942年便提出了机器人三大律法,归根到底就是为了防止机器人对人类造成伤害,确保机器人永远在人的控制之下。罗素在1951年发表了一篇对维纳《控制论》的评论,题目就叫“人类还有必要存在吗?”,可谓是对人工智能时代人类的生存意义发出了终极之问。那时,人工智能还处在初级阶段,远不能跟今天以物联网、大数据和云计算为基础的人工智能相比。
其实,人工智能与法律思维有着很强的表面相似性,世界上的两大法系分别强调演绎逻辑和归纳的重要性,这与人工智能领域的两大流派分别对应。美国大法官霍姆斯在19世纪末的时候写到:“法律的生命不是逻辑,是经验。”逻辑用机器、计算机来模拟是最简单的,早在今天的人工智能出现之前,计算机在演绎逻辑方面便已经可以替代人类了,但前提是人类要进行编程并输入作为大前提的数据。今天,人工智能已经可以利用大数据进行深度学习,只要把它联网并设定目标,它就可以从人脑已经无从把握的海量数据中自行搜索、自行学习。可以说,它在经验归纳方面也获得了超越人脑的能力。IBM Watson一直在从事法律人工智能方面的研究和开发,它的ROSS系统已经可以代替律师从事法律研究,而法律研究(Legal Research)是传统律师业务中最耗费工时的工作。据说ROSS可以替代目前美国律师70%的工作,而且准确率高达90%以上,远远高于顶尖法学院毕业生从事同类工作的准确率。当然,目前主要由律所合伙人从事的人际沟通工作和法官的判断工作是无法被机器取代的。但就人工智能能够取代的部分而言,如果将人工智能全面付诸使用,将会有70%的美国律师失业。无论是在美国还是中国,律师需要花大量的时间来研究法条和案例,读完之后要写成备忘录,以供在法庭上或谈判中使用。ROSS系统不光可以做法律研究,还可以把研究结果写成简报,所以出庭律师或从事非诉业务的律师只要拿到这个简报就可以去干剩下的少量据说更有创造性的工作了。虽然听起来很高大上,但这是法律人最担心的事情,显而易见,人工智能可能会取代很多法律人的工作。
二、人工智能给法律带来巨大挑战
上述挑战虽然是最直接的,但人工智能对一些基础法律概念和思维方式的挑战才是更加根本的。首先,整个法律体系的前提是人的主体性,即人有自己的主观意图、能够按照这种意图采取行动并承担行动的后果。同时,人的主体性也意味着人的有限性,这种有限性体现在感知能力、理性能力和身体能力等各个方面。所以人总会犯错,有过错便有责任,这是法律结构中的核心线索。人类一直在试图强化自己的能力。比如,过目不忘一直是中国传统文人最为欣赏和希望得到的能力之一。《三国演义》中的张松,在接过杨修递给他的《孟德新书》并快速浏览一遍之后,说这哪里是什么新书,分明是战国时无名氏所作,为曹丞相所抄袭。杨修不信,结果张松把该书内容背出,一字不差。还有各种传说中的千里眼和顺风耳。但如今的人工智能已经能够轻松地做到这些。“合成智能”(synthetic intellects)是目前人工智能的一种表现,机器学习、神经网络、大数据、认知系统或演进算法都是它的不同面向。它不是传统意义上的编程,也就是说,它突破了“机器只能做程序员编排它去做的事情”这一范围,你只要给它一大堆人类穷其一生也无法浏览完的素材、还有人类智力根本无从理解的无结构数据,再设定某个具体的目标,最终系统会产生什么结果完全不可预见,不受创造者控制。另一个领域是“人造劳动者”(forged labors),它们是传感器和执行器的结合,可以执行各种体力劳动任务,从海底采矿、外空维修到战场杀敌。机器人的大脑、感官和手足是可以分离的,手脚(执行器)可以延伸到离大脑(CPU)十万八千里的地方。虽然人工智能目前还没有获得真正意义上的自主性,但从它可以产生人类无法预见的结果这一点上看,它已经具备了一定的独立性。人工智能使我们不得不重新思考人的主观能动性,以及这种主观能动性的局限在哪里。
第二,以作为机器学习基础的大数据采集作为例子,朋友圈晒娃的行为是自愿的,但是这种自愿在法律上并不意味着同意某些公司采集到你的信息以后去做别的用途,所以个人意图的边界也在这个时代出现了新的问题。个人信息披露显然是为了更加便利享受服务,个人最终披露的信息将是海量的,全方位的。那么就事论事,在一次次具体的信息披露中,辨别个人是否同意,是否明知个人信息会被用于某一特定用途就变得越来越困难。
第三个方面也涉及到大数据。互联网的特性使得分享、复制、转存变得异常便捷。最初的数据占有者即使已经删除了相关信息,这些信息仍有可能逸散在虚拟空间中。人工智能现在所处理的就是没有被结构化的信息,由于人类根本无法感知和理解这种未被结构化的数据,所以其处理过程是一个只有人工智能能够“理解”的黑箱。陈钟教授在发言时提到要打开这个黑箱,让法律进入算法,算法进入法律。这个思路很好,或许意味着法律人和人工智能专家需要展开更深入的合作。
第四点,正因为这种过错的判断变得越来越困难,当损害结果发生后要追溯到最初,仍要经过无数的环节,每一个环节都可能产生蝴蝶效应,几何式地扩大损害结果。有一个很有趣的例子,2010年美国股市发生了闪电崩盘,一万亿的资产价值瞬间蒸发,指数瞬间下跌了1000个百分点,这件事情发生后美国证券交易委员会用了半年的时间才搞清楚原因是什么。原来是一些炒家的人工智能系统在操作“高频交易”时导致系统崩溃。所谓高频交易,就是说不经过人的具体指令,机器每秒钟都可以“自动”进行无数次交易,还可以相互探测和利用对方机器的交易策略,而传统的计算机不会做出这种策略性行为。
第五,过错与损害结果之间的因果关系也变得越来越难以判定。现在人工智能和大数据领域流行的一句话就是说相关性取代了因果关系,因为人工智能可以进行全数据分析,而因果关系的出现仅在人类只能对有限数据进行分析的情况下才有必要存在,如果人工智能已经可以进行全数据分析的话,那就完全不用考虑因果关系了,只要考虑相关性就行。但恰恰因果关系是法律体系中的核心概念,如果没有因果关系就谈不上法律责任。
第六,进行大数据存储和处理的政府和其他大数据拥有者能够更准确地做出预测,防患于未然,采取干预手段改变事情的发展轨迹,也就是说事情没有发生的时候通过大数据预测会发生什么,杜绝事情的发生。人们可以通过观察、统计、分析而发现近似于自然规律的社会规律,但由于技术手段的欠缺,这一野心以前没法变成现实。而大数据存储和人工智能已经使得样本分析可能变成整全分析,这就变得越来越精准。美国的互联网大佬和其他很多人都说过类似的话:我们越来越从由法律来统治社会的状态进入到由算法来统治社会的状态。相关技术使未来大数据的掌控者能够预测到、甚至可以控制你到底想什么。
现实中,欧盟和美国对个人数据保护强度是不一样的,欧洲更加强调保护个人的数据,如果大数据掌控者(往往是公司)没有经过本人的允许去利用这个数据,哪怕没有实际损害后果,你也是可以去告它的。而且,这种控告不一定要通过成本巨大的司法程序,欧盟层面和许多欧洲国家都有专门的个人数据保护机构,这种行政法化的个人数据保护模式极大地降低了个人提出数据保护诉求的成本,但同时也极大地提高了基于大数据采集和使用的人工智能发展的成本。但美国仍采用传统的侵权法模式来保护个人数据,这就意味着:(1)你大致上只能走司法途径,而打官司是成本高昂的;(2)你必须证明自己遭受了实际损害(actual damage);(3)你还要证明你声称的侵害行为与自己遭受的实际损害之间存在因果关系。这些都使得象谷歌这样的大数据掌控者和人工智能开发商占据优势。这里面还涉及到国际竞争的问题,现在大家都在争抢AI的制高点。AI不是爱,如果过于保护个人权利了,就意味着人工智能的发展会受到人为的限制,从而在这个日新月异的领域错失发展时机。中国因为错失了第一轮工业革命的先机,曾经沦为“半殖民地半封建社会”,因此在这一轮“人工智能革命”中把握先机的渴望和决心都是可以理解的。如何权衡取舍,需要综合考虑我前面提到的以及更多没有提到的因素。像今天这样的多学科学者的对话,便有助于我们理清思路,提出更加均衡、稳妥的方案,供决策者参考,也供公众了解背后的复杂权衡。
(本文为郑戈在2017年8月28日由上海市社联《探索与争鸣》杂志社和华东政法大学政治学研究院共同主办的“人工智能与未来社会:趋势、风险与挑战”学术研讨会上的主题发言,本人整理,首发于微信公号:tansuoyuzhengming,澎湃新闻经授权转载。)
责任编辑:田春玲澎湃新闻报料:4009-20-4009   澎湃新闻,未经授权不得转载
关键词 >> 人工智能,电子人,法律

相关推荐

评论(25)

热新闻

澎湃新闻APP下载

客户端下载

热话题

热门推荐

关于澎湃 在澎湃工作 联系我们 版权声明 澎湃广告 友情链接