赢了李世石的阿尔法狗还在升级,人工智能下一爆点在芯片上?

澎湃新闻记者 王心馨

2016-07-27 17:33 来源:澎湃新闻

字号
当AlphaGo打败韩国棋手李世石后,为了让其能更好地训练自己的系统,谷歌专为机器学习定制了“TPU”(Tensor Processing Unit)的ASIC芯片,专门针对TensorFlow进行优化,性能要优于英伟达的GPU。
从谷歌对于芯片的重视程度来看,芯片的性能对于人工智能训练自身,进行机器学习的这一过程非常重要。在人工智能领域里,在CPU、GPU上运行深度神经网络计算已不是什么新鲜事。对于芯片公司来说,未来人工智能会越来越多地运用到各个智能设备上,对芯片的传感器、信息处理速度的要求越来越高。
这样一来,科学家就需要采用专门的高效芯片来处理深度神经网络带来的海量数据。现在,利用神经形态计算,来模拟人类大脑处理信息的技术,正在成为人工智能领域的另一个技术方向。
“人工智能深度神经网络的计算结构比较特殊,比如高度的并行化、时间域上的递归、中间的节点比较稀疏,所以如果能用专门的硬件来实现,会比在CPU上用软件实现要高效,一般来说会提高2-3个数量级。”地平线机器人公司余凯在接受媒体采访时说。
神经形态计算可以模拟人类大脑处理信息
冯·诺依曼
神经形态计算,也可以称为是大脑刺激计算,对于科学家来说这个领域一直是诱人的目标。人脑运转的高效性对于许多计算机来说,一直是无法企及的目标。除了能用更少的能耗来做更多的计算外,最为重要的是,神经形态计算摆脱了冯·诺依曼建立的计算结构,将模拟大脑处理、加工信息的过程集成到芯片上。这样一来,装了这种芯片的机器可以更快速、高效的学习数据。
但是,目前计算机使用的芯片大多还是依据冯·诺依曼体系结构,依靠中央处理器和存储器来回处理信息,计算信息中的逻辑。这个方法非常适合处理数字,执行精确编写的程序,但不能用于处理图像或声音。以谷歌公司为例,谷歌训练人工智能识别视频中的猫时,需要16000个处理器来支撑。
而神经形态计算,则希望通过模拟人类大脑处理信息的过程来达到高效的作用。它模拟了大脑数十亿神经元和突触,用以接受外来信息,如视觉、听觉,随后,接受到的信息、图片和声音又能改变神经元之间的联系。这整个过程就是机器学习的过程。在神经形态计算中,纳入了类似人类大脑启发的模型,也可以称为神经网络。
IBM、高通布局神经形态计算芯片
神经形态计算最早由从事类脑研究的美国加州理工学院科学家Carver Mead,在上世纪80年代末提出。虽然在过去三十几年中,业界仍以传统的芯片为主,但国外已经有科技巨头在朝这个方向努力,甚至还联合了美国国防部先进研究项目局(DARPA)。
例如,IBM的TrueNorth项目。该项目在2014年8月推出,IBM以神经形态工程学设计了CMOS芯片,包含4096个硬件核心,每个核心包含256个可编程的神经元芯片,拥有超过一百万的神经元。神经元上的突触能接受信号并影响彼此之间的联系。
TrueNorth的项目是DARPA(SyNAPSE)下的项目之一,这款芯片的计算能力已经大致等同于啮齿动物的脑力。它也绕开冯·诺依曼架构的瓶颈,同时还非常节能,功耗仅70为毫瓦,能够每秒能操作460亿神经突触。
如果说IBM的项目与军方有关,不适合商用的话,那高通Zeroth项目的商业味道会更浓一些。Zeroth项目,不仅希望可以模仿类似人类的感知,而且还拥有学习生物大脑如何活动的能力。高通研发部门的高级主管和产品经理Tony Lewis认为他们的研究很有意义:“大脑之中充满了电流活动和诸如意识、行为等活动模式,人们之前无法观察这些活动,这些活动模式出错了也不知道怎么去治疗。借助于高通的研究成果,人们会看到人类大脑中复杂的活动模式,并能够识别他们,进而研发出治疗恢复的方法。”
目前高通还将自己的研究成果用于玩具机器人上,可以让机器人在丢失了图传信号,或者断网的情况,能自主地判别障碍物并主动绕行。未来,高通还希望建立Zeroth平台,搭建更多的应用项目。
国内水平不差,未来可弯道超车
西井科技发布的首块5000万神经元类脑芯片
除了国外的科技公司在投入外,国内也有初创公司加入到神经形态计算芯片的研发中。上海西井信息科技公司成立于2015年。在今年5月份,公司对外推出了拥有100亿“神经元”的人脑实时仿真模拟器“西井大脑”,同时还推出了5000万神经元类脑商用芯片。西井信息科技CEO谭黎敏在接受澎湃新闻(www.thepaper.cn)采访时说:“在无网络情况下使用相对需要传输云端处理任务。我们之前做过相应测试,使用我们的芯片,在2秒内,8个神经元核心就完成了对6万张图片的学习。速度之快,大大超越了传统的CPU。正是因为模拟人脑神经元的工作方式,而产生了这样的优势。”
据谭黎敏介绍,公司独有的算法可以模拟人脑突触的可塑性原理,也让公司成为了做到“on-line learning”的硬件团队目前公司还在扩大技术队伍,计划在今年年末推出可量产的商用芯片。同时,该公司还计划用类脑智能助力脑科学研究,以脑科学研究“反哺”类脑智能的方式与各国脑计划团队展开合作交流。
尽管神经形态计算的芯片在技术上有优势,但也不得不指出,从目前的市场情况来说,仍以传统的芯片为主。大多数的公司也还在摸索芯片的应用场景。
“神经形态计算还处于起步阶段。”橡树岭国家实验室研究员凯瑟琳·舒曼说,“我们还没有确定我们将运行的特定架构。同时我们也还在寻找以不同的方式模拟神经元突触。此外,还有如何实际使用这些设备的问题、编程方面等都需要花时间。”
谭黎敏在接受澎湃新闻采访时,也谈到了一些国内遇到的困难。他告诉澎湃新闻(www.thepaper.cn):“除了紧缺技术人才,我们更缺的是硬件资源,我们做的芯片、硬件涉及半导体行业,这个行业在中国本身就需要迎头追赶国外。但在人工智能的研究方面,中国与国外的差距其实没有想象中那么大,只不过我们起步晚一些,未来‘弯道超车’应该比较快。”
澎湃新闻报料:4009-20-4009   澎湃新闻,未经授权不得转载
关键词 >> 人工智能,神经形态计算,中国,高通,IBM,澎湃,澎湃新闻

相关推荐

评论(37)

热新闻

澎湃新闻APP下载

客户端下载

热话题

热门推荐

关于澎湃 在澎湃工作 联系我们 版权声明 澎湃广告 友情链接 澎湃新闻举报受理和处置办法