澎湃Logo
下载客户端

登录

  • +1

专家:发展人工智能有近期、中期和远期终极危险

澎湃新闻记者 俞凯
2016-05-23 20:49
来源:澎湃新闻
浦江头条 >
字号

今年3月,谷歌人工智能阿尔法狗与韩国棋王李世石的人机大战,以人类失败而告终,也引发了全世界关于人工智能的讨论。

澎湃新闻(www.thepaper.cn)发现,在5月23日上海科普周举行的科技与人文对话“人工智能与社会变革”活动中,上海专家对此表示担忧。上海交大科学史与科学文化研究院院长江晓原教授直言,人类不应无限制发展人工智能。他认为,发展人工智能存在近期、中期和远期终极危险,如果任其发展而不加限制,人类文明被人工智能灭亡并非危言耸听。

江晓原认为,生物技术、人工智能是人类玩的最危险的两把火,从某种意义上看,人工智能的危险更甚于生物技术,近期世界各地对人机大战的炒作,更加剧了这种危险。在他看来,这种危险分为三种层次,即存在着近期危险、中期危险和远期终极危险。

“近期危险主要表现为两个方面,首先,人工智能正在让很多人失去工作岗位。”江晓原说,与过去的工业革命相比,人工智能对人工的取代是截然不同的,它的危险性在于,绝大多数人类的工作都会被人工智能取代。如果仅仅是少部分人的工作被机器取代,人类还能够承受,但如果颠倒过来,90%的人的工作岗位都被人工智能取代,社会就会变得非常不稳定,因为这些失业的人可以有无数的时间来进行革命,对此人类社会显然还没有准备好。

“现在很多工厂已经出现了这样的危险,尽管用人工智能的成本目前阶段相当于三名工人一年的工资,但管理起来却非常容易,比如工人加班会有怨言,而让机器人24小时上班机器也不会有意见,所以对于工厂管理者来说,他们非常愿意用人工智能取代工人,通过加班,其成本一年也许就能收回,所以很多地方政府现在也在鼓励人工智能的升级换代。”

江晓原表示,近期第二种危险就是人工智能的军事化。人工机器人也许是可爱的,但加入军队的机器人是非常可怕的。就像星球大战和骇客帝国所表现的那样,人工智能如果被用于战争,将会成为杀人手段和武器。

江晓原用“养虎遗患”来形容人工智能对人类带来的中期危险。他说,也许不少研究人工智能的科学家会认为现在的人工智能还不成熟,还是只“小老虎”、“虎毒不食子”,但是需要引起警惕的是,人类根本无法保证养大了的这个“孩子”会不会学坏,尤其是这个“孩子”比人类更聪明、自我学习能力更强,一旦它们在智能上超过人类变成超人同时又“学坏”了的话,人类将失去对人工智能的控制,也许就很难避免被自己养大的“老虎”吃掉。

对于远期终极的危险,江晓原教授在对话活动中称,国外有专家认为,所有依赖人工智能的文明都会被其灭亡,此言并非杞人忧天。如果人类的绝大部分机械性重复劳动都被人工智能取代,人类只需要每天躺在沙滩上晒太阳、享受安逸的生活、接受机器人无微不至的服务,人类其实已失去了生存的意义,活着就是混吃等死,人就会成为寄生虫,人的智能体能就会快速衰退,整个人类群体就会消亡。在他看来,无论人工智能对人类反叛也好、乖顺也好,从远期来看对人类都是弊大于利、都是有害的。

因此,江教授在人工智能与社会变革对话活动中建议,世界各国应该坐下来,订立一条关于人工智能发展的国际条约,严格约束人工智能的研发,严禁把人工智能用于军事目的、用于互联网结合领域。“这把火烧得不好的话,也许在我有生之年就会看到危险的前景和悲惨的后果,我们必须要提高警惕。”他忧心忡忡地说。

参加东方讲坛·科技与人文对话活动的同济大学电子与信息学院汪镭教授在发言时也表示,人机关系究竟会发展到什么程度、人与机器人究竟会“握手还是打仗”、人工智能如何服从人类需要,都是需要展开研讨的重大社会问题,也提醒我们对人工智能进行严肃的人文思考。

    澎湃新闻报料:021-962866
    澎湃新闻,未经授权不得转载
    +1
    收藏
    我要举报

            扫码下载澎湃新闻客户端

            沪ICP备14003370号

            沪公网安备31010602000299号

            互联网新闻信息服务许可证:31120170006

            增值电信业务经营许可证:沪B2-2017116

            © 2014-2024 上海东方报业有限公司

            反馈