谷歌让人工智能在“互殴”中学习,以对抗未来的超级网络攻击

澎湃新闻记者 王灿 实习生 叶娜妮 综合报道

2017-07-23 17:13 来源:澎湃新闻

字号
想要对抗恶意的人工智能(AI),人类最终可能还得依靠人工智能本身。谷歌的想法是:让AI互为攻防,在“互殴”中进化、学习防御之道。
美国科技杂志《麻省理工科技评论》(MIT Technology Review)近日报道,将于今年12月份举办的顶级学术会议——神经信息处理系统大会(NIPS 2017)上,会有一个关于AI攻击和防御对抗比赛(Competition on Adversarial Attacks and Defenses)的成果发布。麻省理工科技评论称,这场比赛预示着进攻性AI和防御性AI算法之间的战斗,可能是网络安全和网络战争的未来。
该比赛由谷歌的研究员牵头组织,并在谷歌旗下的数据公司Kaggle的平台上运行。
机器学习,特别是深度学习,正在迅速成为许多行业不可或缺的工具。该技术涉及将数据馈送到特殊类型的计算机程序中,指定特定结果,并使机器开发出自己的算法,来拟合结果。而深度学习更是通过调整数学模拟神经元巨大的互连网络参数,来做到这一点。
然而,目前大多数现有的机器学习的鲁棒性(robustness,系统的抗干扰能力)很差,容易受对抗样本的影响。样本经过轻微修改后,可能就会让机器学习发生错误。这些修改可能人类几乎无法看出,这可能会对机器学习分类器的安全性产生不利影响。因此,这一比赛主要也是为了加快研究机器学习分类器的对抗样本,提升其鲁棒性。
据Kaggle官网消息,该比赛分有3轮:第一轮为无目的对抗攻击(Non-targeted Adversarial Attack),即竞赛者所提交的系统需要对任何类别的图片进行处理,使得某个通用机器学习分类器无法识别;第二轮为有针对性的对抗攻击(Targeted Adversarial Attack),即竞赛者所提交的系统需要对给定的图片进行处理,使得某个通用机器学习分类器无法识别;第三轮为防御对抗攻击(Defense Against Adversarial Attack),即竞赛者需要构建一个强大的机器学习分类器,使通用机器拥有足够的鲁棒性能正确鉴别对抗性的图像。
在每个阶段的比赛中,参赛者都被要求制作并提交解决相应任务的程序,举办方会通过攻击程序来评估该程序的等级。
据Kaggle官网,该比赛将于8月1日、9月1日、9月15日分别启动三轮开发进程,并在 10月1日截止。最终结果,将会于12月举办的NIPS 2017大会上揭晓。
谷歌大脑的研究员Ian Goodfellow说,“对抗性的机器学习比常规的机器学习更难研究,因为很难说是你的攻击强力,还是你的防御实在太虚弱。”Goodfellow是人工智能领域的顶级专家,因提出生成对抗网络(GANs)而闻名。
随着机器学习的普及,当机器学习能被用来盈利或者做坏事时,对黑客来说,躲开网络防火墙等安全措施,安装恶意软件将变得更加便捷,这也引起了人们的恐慌。“计算机安全肯定是朝着机器学习的方向走,”Goodfellow称,“坏人会用机器学习来使他们对网络的攻击自动化,而我们要用机器学习来进行防御。”
目前,Kaggle已经成为算法开发的宝地,并成为培养有才华的数据科学家的温床。该公司于3月份被Google收购,现在已成为Google Cloud平台的一部分。Goodfellow和另一位谷歌大脑研究员Alexey Kurakin在收购之前,就曾提出过比赛的想法。
Kaggle的首席技术官(CTO)兼共同创始人Benjamin Hamner表示,希望这个比赛能够引起大家的关注。“当机器学习被更广泛的应用,了解对抗学习的问题和风险变得越来越重要”, Hamner表示。
Hamner认为,公开比赛远比直接宣传新型网络攻击会带来相关风险来的有效。他补充说,“我们相信这个研究最好是公开地建立和分享,而不是闭门造车。”
责任编辑:沈关哲澎湃新闻报料:4009-20-4009   澎湃新闻,未经授权不得转载
关键词 >>

相关推荐

评论(25)

热新闻

澎湃新闻APP下载

客户端下载

热话题

热门推荐

关于澎湃 在澎湃工作 联系我们 版权声明 澎湃广告 友情链接 澎湃新闻举报受理和处置办法