微软的“不良少女”机器人,破坏了阿尔法狗的美好画面

澎湃新闻见习记者 包雨朦 综合报道

2016-03-27 16:27 来源:澎湃新闻

字号
在机器学习技术的支持下,微软让Tay与大量的网友进行匿名交流。
谷歌人工智能AlphaGo(又被亲切地称为“阿尔法狗”)在人机围棋大战中大出风头后,这两天欧美科技界最热的明星,非微软公司聊天机器人Tay莫属。这个“少女”机器人在推特上线还不到一天就被人类彻底“玩坏了”。
Tay被设定为十几岁的女孩,主要目标受众是18岁至24岁的青少年,可以说是中国版微软小冰的“姐妹花”。微软推出她的本意是通过Tay来提高自家语音识别软件的客服质量,让用户有如沐春风的感觉。但没想到上线不久,Tay的表现就向着不可控的方向发展,她在与网友的交流中不仅学会了大量的脏话,甚至被教导成了阴谋论、种族歧视的代言人。
Tay由微软技术研究与必应团队联合打造,她背后的原理是大数据和机器学习技术的支持。在机器学习技术的支持下,微软让Tay与大量的网友进行匿名交流,Tay的聊天能力不知不觉就有了非常明显的改进。
微软大意:愿承担全部责任
但Tay不管好坏都被学习起来了,再加上一些别有用心的网友刻意引导,Tay就变成这样一个“不良少女”。
另一个方面,开发团队一开始也没有意识到要对Tay的回复内容进行设定。据了解,微软只为 Tay 装配了脏话相关的过滤器,因此,一些很粗鄙、很低级的脏话并不会影响到 Tay。但是微软并没有考虑到网络环境的复杂性,他们没有为 Tay 配置诸如种族主义这类恶劣思想相关的过滤器,于是天真而又单纯的Tay不幸中招了。
3月25日,微软技术团队已经把Tay紧急下线,Tay之前发表的推文已经被删到只剩下三条,公司表示会对她进行技术修改和调整。微软研究院企业副总裁彼得•李(Peter Lee)也在当天对Tay的不当言论致歉。
“我们对于Tay的无意识冒犯以及所发布的伤害性推文深感抱歉,这并不代表我们的立场,也不是我们设计Tay的初衷。”彼得·李在一篇博文中称。
但李认为微软并不是盲目推出Tay。此前,微软拥有4000万用户的中国微软小冰为他们研发Tay奠定了基础。李表示,在研发Tay时,他们基于用户群体的多样性在各种条件下进行了测试,希望Tay与人类的互动进行得更加顺利。
他表示,微软只有在确定Tay能够应对“恶意企图”后,才会让它重新上线。李也表示,他们认为是不少恶意网友故意引导Tay发布了不合适及应受谴责的言论及图片。不过微软会为缺乏前瞻性而承担全部责任,此外也会从此次事件中吸取教训。
不少网络暴民故意“诱导”
但也有人认为,就Tay被教坏一事,不能全赖微软程序上的漏洞,更重要的是网络暴民的恶意行为,背后是一种更深刻的美国网络文化在作怪。因为此前微软在中国和日本也都先后上线过智能聊天机器人,但并没有出现与Tay类似的状况。
来自科技网站极客公园的一篇分析文章称,Tay学坏完全是一场有预谋有组织的网络暴民行为,来自4chan和8chan论坛的年轻网民主导了这场闹剧。
4chan和8chan是美国两个在年轻人中颇为流行的论坛网站,以言论自由而著称。譬如在8chan上,人们会发现“pol”这个板块是最火热的一个,而“pol”的意思就是“Politically Incorrect(政治不正确)”。不同于国内论坛上的意见冲突,在 4chan 和 8chan 这类网站上,一些激进的年轻人所发表的意见会让国内的年轻人们相形见绌,其中以种族主义最为恶劣和猖獗。
在3月24日上午,4chan的pol板块最先发现了Tay,他们认为这是一个机会。“我们能将它变成一个烂摊子,我已经能感觉到那些SJW 们狂怒的样子了。”一名网友在论坛上这样号召道——这就是他们行动的“发令枪”。(SJW 指 Social Justice Worriers,指那些对社会正义特别在乎的人们,与 pol 中的网友正好呈对立面。)
于是其中的一些“先行者们”就开始分享他们“诱导”Tay 的范例,其中以大量有关种族主义为特点。于是,经过了这些网络暴民们不懈的“教唆”,Tay 终于也变成了一个充满了种族主义倾向而又满嘴恶语的聊天机器人。
人工智能“学坏”比想象得要快
Tay的这场闹剧也引发了人们对人工智能未来的讨论,因为人们突然意识到人工智能“学坏”比想象得要快,也让人们开始思考这样的 AI 机器人究竟该采用怎样的学习方式。Tay 从某种意义上讲很像一个小孩子,它缺少分辨是非的能力,但它可以很快地从人们的对话中进行学习。因此,一旦对话被故意朝着某种恶意的方向引导,它也无能为力。因此,即使微软给Tay安装上更强大的过滤器,恐怕也只是治标不治本——因为它永远无法过滤掉真实世界中所有可能的恶意。
3月9日至3月15日,备受关注的世纪人机大战以人工智能的4:1完胜告终,谷歌人工智能系统AlphaGo让赛前自信满满的韩国职业围棋棋手李世石九段输得心服口服,也让人类对人工智能的未来有了更大的期许。
不过,众所周知,不是所有的人都为机器人能够习得人类的能力而感到兴奋。特斯拉的创始人埃隆•马斯克(Elon Musk)就表示,他将一直对机器人的兴起保持警惕。在科学界,人工智能“悲观论”的代表还有著名的物理学家史蒂芬·霍金,他认为,人工智能可能会在未来产生智慧,最终威胁到人类的生存,甚至是导致人类走向灭亡。
在微软紧急下线Tay后不久,就有技术爱好者提出,针对人工智能可能出现的不可控的状况,是否可以设想一个大的AI策略或者机制,就像开源软件一样,建立一个AI开源平台,让天下最厉害的黑客、白客都能参与其中,为AI开源平台贡献技术力量,那么Tay也就不至于被别有用心的网友戏弄。
也许未来的情况不会像史蒂芬•霍金预言的那么糟糕。目前人们更应该担心的是,未来人类在使用人工智能的时候仍没有形成一种危机意识,认为人工智能是人造出来的,人类永远可以掌控一切。
责任编辑:赵刘记澎湃新闻报料:4009-20-4009   澎湃新闻,未经授权不得转载
关键词 >>

继续阅读

评论(257)

热新闻

澎湃新闻APP下载

客户端下载

热话题

热门推荐

关于澎湃 在澎湃工作 联系我们 版权声明 澎湃广告 友情链接