- 2017/6/20 10:50:38
- 类型:原创
- 来源:电脑报
- 报纸编辑:电脑报
- 作者:
以GPU促进了深度学习发展的英伟达,在2017年的5月的GPU技术大会(GTC17) 上,宣布推出新一代GPU。这款名为Volta(伏特)的深度学习芯片,被英伟达称为是通用并行计算架构CUDA发明以来,这个时代最大的技术飞跃。它集成了211亿个晶体管,采用12纳米集成电路工艺生产,支持120万亿次浮点运算。借助专门用于深度学习的运算器, Volta与去年推出的前一代GPU Pascal架构相比,AI训练速度是2.4倍,推理速度为3.7倍。更有人计算出,Volta 的最高浮点运算能力,比Pascal GPU 架构高5倍,与两年前所发布的Maxwell 架构高15倍,性能跃升幅度,大约是摩尔定律描述的4倍。
另辟蹊径挑战摩尔定律的还有谷歌,也是在2017年5月,谷歌在I/O 2017大会上宣布推出新一代深度学习芯片TPU(张量处理器)。有人分析过,TPU代际性能提升幅度约为摩尔定律的3倍,同样跨越摩尔定律定义的发展规律。
谷歌新一代深度学习芯片TPU
半导体工业自身也没有因为摩尔定律而停步。2017年6月,IBM公司宣布了半导体方面的重大新突破,研制成功5纳米芯片。这新一代芯片每片可容纳300亿晶体管,速度比目前最先进的10纳米芯片快40%,节能提高75%。可能在2020年投产的5纳米芯片,会大大提升CPU、GPU、TPU等常规和非常规计算芯片的性能。有人把这样的成功称为摩尔定律的延续。
AI发展不可或缺的计算能力,未来仍在大幅提升。
AI的初心
如果回到AI出发的初心,正是要探索人脑奥秘,研究人类思维规律,然后让机器实现人脑的功能。怀抱这样的理想,人类开始了伟大的AI历程。在AI发展过程中,AI科学家常常受人脑工作机制的启发。尽管今天的AI技术相对具有独立性,以致有人认为与人脑没有太大的联系。但无论是AI科学家还是神经科学家,都保持着对人脑这一宇宙精灵的高度尊敬与重视,期盼对人脑的深入研究,能够在未来AI发展中发挥重要作用。
复旦大学类脑智能科学与技术研究院院长冯建峰教授列举了脑科学与类脑人工智能的四个研究方向:1.大脑神经网络分析。用现代生物学手段采集遗传、分子、神经元等多模态的脑影像和各种数据。用高维大数据新算法,辅助解析大脑工作和信息处理机制,尤其是神经元集群的学习与记忆、抉择、语言等认知功能的机制,加深对大脑信息处理机制的理解。2.认知机制计算模型。研究脑系统的数学模型,尤其是神经反馈连接作用、认知和学习功能,设计新型高效的类脑人工智能算法。3.类脑智能算法创新。用生物学发现来创新或改进己有深度学习计算框架和相关理论。4.类脑智能技术应用创新。发展新的智能控制器和各种智能设备。
这样的研究方向描述,是脑科学研究应用于AI的一张路线图。
2017年6月,《美国科学院院报》(PNAS)一篇论文引人关注。瑞典隆德大学研究人员在论文中指出,他们发现人脑中的神经元本身也具有编程能力,或者说有学习的能力。他们的研究表明,单个神经元中存储信息的容量远超预期。这一发现可能将为设计全新的人工神经网络带来启发。
科学家们以前认为学习和记忆取决于突触连接。而这样的认知也影响了AI,如人工神经网络中,神经元之间的“突触权重”的调整一直是机器学习研究的重要内容。这次瑞典隆德大学盖蒙德•赫斯洛(Germund Hesslow)等科学家的研究发现,不光是突触连接,神经元本身在学习过程中也扮演了重要角色,单个神经元就可以编程,而且信息存储能力也超过预期。神经元本身具有学习和记忆的机制,这是一个新的发现。尽管目前还是初步研究,这项研究针对的是小脑的 Purkinje 细胞,与我们常说的大脑神经元有所不同。但这一研究确实改变了以前对神经元细胞学习能力的认知,让人们对大脑学习的方式和潜能有新的认识。
沿着这个方向,脑科学家们可能更深入认识大脑工作机制,AI科学家们也可能受到重大启发。有人甚至认为,这会影响新一代深度学习神经网络的研究。
这还仅仅是脑科学研究影响AI未来的一个例子。而且,影响AI未来的也不只是一、两门学科,现代科学技术整体上正在迅猛发展,人类对世界的认知日新月异,未来的AI,前程似锦。而在AI的新阶段,或者说AI 2.0时代,人类社会也一定会更加美好。
报纸客服电话:4006677866 报纸客服信箱:pcw-advice@vip.sin*.c*m 友情链接与合作:987349267(QQ) 广告与活动:675009(QQ) 网站联系信箱:cpcw@cpcw*.c*m
Copyright © 2006-2011 电脑报官方网站 版权所有 渝ICP备10009040号