澎湃Logo
下载客户端

登录

  • +1

霍金等呼吁警惕人工智能武器,中国首次称有必要建立国际规范

澎湃新闻记者 杨一帆
2016-12-19 19:51
来源:澎湃新闻
澎湃防务 >
字号

美国电影《终结者》中令人恐惧的“机器人杀手”或许不久即将问世。

“机器人杀手”是人工智能武器系统的一种通俗称法,一般指具备自主选择目标并实施攻击的武器系统。据英国《每日邮报》12月16日报道,《特定常规武器公约》的123个缔约国在其第五届工作评估会议上一致同意,在2017年对有关人工智能武器系统的一项禁令展开讨论。

“这次会议是阻止发展杀戮机器的重要一步,但是(我们)已没有多少时间。”人权观察组织的武器事务主管、“禁止机器人杀手运动”的联合发起人Steve Goose表示,“一旦这种武器问世,就很难再去阻止了。如今出台一个预防性的禁令正当其时。”

据悉,有关禁令的对话将于明年4月或8月在日内瓦举行,其中88个国家已经同意出席。而中国在这次会议上首次表态称需要一份新的国际文书来规范这些致命的智能武器系统。

“一旦具有自主行为能力的机器人在战场上使用,将对未来战争带来极大的不确定性。如果当前法规不能防患于未然,则将使未来战争后果和责任判定等一系列关键问题成为无法可依的真空地带。届时再谈立法问题,必将受到利益相关方的阻挠,从而无法形成具有通行约束力的法规。这将是人类无法想象的灾难。”国防科技大学副教授石海明对澎湃新闻(www.thepaper.cn)表示。

在过去的一年中,超过1000位科学家与机器人专家——包括史蒂芬·霍金、特斯拉CEO艾隆·马斯克和作为苹果创始人之一的史蒂夫·沃兹尼亚克——纷纷发出警告,认为人工智能武器可能只需要数年就能开发出来。

在一份公开信中,他们表示,如果任何军事大国推动这种武器的开发,那么“全球范围的军备竞赛将无可避免……而且这种武器将会成为未来的AK-47突击步枪。”

在对人工智能武器系统的担忧中,核心的忧虑是这有可能导致人类失去对武器使用的垄断权。

“在人工智能技术飞速发展的同时,完全自主控制的武器,也就是‘机器人杀手’,正从科幻电影快速成为现实。”人权观察组织武器事务高级研究员Bonnie Docherty在给评估会议的报告中写道,“这些武器存在于海陆空各场域,以令人惊惧的方式对战争形态与国际法构成革命性的挑战。”

尽管有支持者认为这些技术可以使士兵与警察处于更为安全的境地,“但是它对全人类的危害将远远超过其带来的益处。”Bonnie Docherty表示。

此外,人工智能武器还对人类构成了明显的道德难题。

如果一个机器人非法杀害了一个人,谁应该为此负责呢?在人权观察组织今年早些时候出台的一份报告中,答案是:没有人,因为其行为并非人为所能控制。

“无法问责意味着失去对犯罪行为的威慑。智能武器系统对人类的道德、法律以及问责体系同样构成冲击。”Bonnie Docherty认为,“控制这种风险的最好方式是达成一份禁止发展和使用这种武器的国际禁令。

“由于智能作战装备无法区分战斗和非战斗人员,很可能造成无限制的杀伤,从而产生人道主义灾难。”石海明强调,“战场决策的智能化、作战行动的无人化将把人这个战争主体模糊化,甚至出现随意开战、无人负责的可怕局面。这将引发世界范围内的混乱,甚至包括全面的核战争。”

    澎湃新闻报料:021-962866
    澎湃新闻,未经授权不得转载
    +1
    收藏
    我要举报

            扫码下载澎湃新闻客户端

            沪ICP备14003370号

            沪公网安备31010602000299号

            互联网新闻信息服务许可证:31120170006

            增值电信业务经营许可证:沪B2-2017116

            © 2014-2024 上海东方报业有限公司

            反馈