澎湃Logo
下载客户端

登录

  • +1

谷歌让人工智能在“互殴”中学习,以对抗未来的超级网络攻击

澎湃新闻记者 王灿 实习生 叶娜妮 综合报道
2017-07-23 17:13
来源:澎湃新闻
科学湃 >
字号

想要对抗恶意的人工智能(AI),人类最终可能还得依靠人工智能本身。谷歌的想法是:让AI互为攻防,在“互殴”中进化、学习防御之道。

美国科技杂志《麻省理工科技评论》(MIT Technology Review)近日报道,将于今年12月份举办的顶级学术会议——神经信息处理系统大会(NIPS 2017)上,会有一个关于AI攻击和防御对抗比赛(Competition on Adversarial Attacks and Defenses)的成果发布。麻省理工科技评论称,这场比赛预示着进攻性AI和防御性AI算法之间的战斗,可能是网络安全和网络战争的未来。

该比赛由谷歌的研究员牵头组织,并在谷歌旗下的数据公司Kaggle的平台上运行。

机器学习,特别是深度学习,正在迅速成为许多行业不可或缺的工具。该技术涉及将数据馈送到特殊类型的计算机程序中,指定特定结果,并使机器开发出自己的算法,来拟合结果。而深度学习更是通过调整数学模拟神经元巨大的互连网络参数,来做到这一点。

然而,目前大多数现有的机器学习的鲁棒性(robustness,系统的抗干扰能力)很差,容易受对抗样本的影响。样本经过轻微修改后,可能就会让机器学习发生错误。这些修改可能人类几乎无法看出,这可能会对机器学习分类器的安全性产生不利影响。因此,这一比赛主要也是为了加快研究机器学习分类器的对抗样本,提升其鲁棒性。

据Kaggle官网消息,该比赛分有3轮:第一轮为无目的对抗攻击(Non-targeted Adversarial Attack),即竞赛者所提交的系统需要对任何类别的图片进行处理,使得某个通用机器学习分类器无法识别;第二轮为有针对性的对抗攻击(Targeted Adversarial Attack),即竞赛者所提交的系统需要对给定的图片进行处理,使得某个通用机器学习分类器无法识别;第三轮为防御对抗攻击(Defense Against Adversarial Attack),即竞赛者需要构建一个强大的机器学习分类器,使通用机器拥有足够的鲁棒性能正确鉴别对抗性的图像。

在每个阶段的比赛中,参赛者都被要求制作并提交解决相应任务的程序,举办方会通过攻击程序来评估该程序的等级。

据Kaggle官网,该比赛将于8月1日、9月1日、9月15日分别启动三轮开发进程,并在 10月1日截止。最终结果,将会于12月举办的NIPS 2017大会上揭晓。

谷歌大脑的研究员Ian Goodfellow说,“对抗性的机器学习比常规的机器学习更难研究,因为很难说是你的攻击强力,还是你的防御实在太虚弱。”Goodfellow是人工智能领域的顶级专家,因提出生成对抗网络(GANs)而闻名。

随着机器学习的普及,当机器学习能被用来盈利或者做坏事时,对黑客来说,躲开网络防火墙等安全措施,安装恶意软件将变得更加便捷,这也引起了人们的恐慌。“计算机安全肯定是朝着机器学习的方向走,”Goodfellow称,“坏人会用机器学习来使他们对网络的攻击自动化,而我们要用机器学习来进行防御。”

目前,Kaggle已经成为算法开发的宝地,并成为培养有才华的数据科学家的温床。该公司于3月份被Google收购,现在已成为Google Cloud平台的一部分。Goodfellow和另一位谷歌大脑研究员Alexey Kurakin在收购之前,就曾提出过比赛的想法。

Kaggle的首席技术官(CTO)兼共同创始人Benjamin Hamner表示,希望这个比赛能够引起大家的关注。“当机器学习被更广泛的应用,了解对抗学习的问题和风险变得越来越重要”, Hamner表示。

Hamner认为,公开比赛远比直接宣传新型网络攻击会带来相关风险来的有效。他补充说,“我们相信这个研究最好是公开地建立和分享,而不是闭门造车。”

    澎湃新闻报料:021-962866
    澎湃新闻,未经授权不得转载
    +1
    收藏
    我要举报

            扫码下载澎湃新闻客户端

            沪ICP备14003370号

            沪公网安备31010602000299号

            互联网新闻信息服务许可证:31120170006

            增值电信业务经营许可证:沪B2-2017116

            © 2014-2024 上海东方报业有限公司

            反馈