本文共 1665 字,大约阅读时间需要 5 分钟。
深度学习(deep learning),无疑是IT界近两年比较流行的一个热词。它是什么意思呢?理解起来,与人工智能、机器学习比较接近,目的是想让计算机能够像人脑一样智能地识别图片、语音……,因此无论是深度学习还是人工智能都是实现目标的手段。
为了更好地理解本文,这里再多做一点解释,人脑认知事物的过程其实是分层的,每一层都会识别出一定的特征,然后不断地向上汇聚,最终识别出这个事物是什么。当然,整个过程的层级很多,而且识别过程是极其快速的。现在的深度学习、人工智能就是要计算机模拟人脑对于事物的识别过程。
那问题来了,得多么强大的机器才能达成这样的目的?可能你对这个没概念,这里提供一些参考数据。在2012年6月,《纽约时报》披露的Google Brain项目中,著名的斯坦福大学的机器学习教授Andrew Ng和大规模计算机系统方面的世界顶尖专家JeffDean用16000个CPU Core的并行计算平台训练一种称为“深度神经网络”(DNN,Deep Neural Networks)的机器学习模型,在语音识别和图像识别等领域获得了巨大的成功。
16000个CPU Core,很多吗?其实也不算多,现全球最快的超级计算机天河2号的CPU核数是312万个。这么大体量的超级计算机,用来干什么?用途很多,上述的图像、语音识别只是其中的一部分,更多像气象预报、地质勘探等才是它的主业,这就更多到了传统HPC(高性能计算)的范畴。
说到底,无论是之前的气象预报、地质勘探,还是现在所提的人工智能、深度学习,都属于HPC的范畴。只不过前者由来已久,后者虽还并不为太多人所知,但发展趋势无疑是明显的。今年两会上,百度董事长李彦宏就提出了“中国大脑”计划,并给出四个方面的建议。一是以智能人机交互、大数据分析预测、自动驾驶、智能医疗诊断、智能无人飞机、军事和民用机器人技术等为重要研究领域;二是支持有能力的企业搭建人工智能基础资源和公共服务平台;三是改变传统“相马模式”的科研机制,引入“赛马模式”的市场机制;四是在人工智能技术成果的转化与共享方面,充分引入市场机制。
如果以阴谋论的角度来看,李彦宏这样的提案完全是在为百度的下一步铺路。为什么这么说,因为百度在深度学习、人工智能方面已经有了很多实质性的进展。在3月中旬由NVIDIA主板的GTC2015大会上,来自百度美国研发中心的专家分享了其在深度学习、人工智能方面的一些成果、心得,而这些成果其实已经在百度得到了应用,涵盖图片识别、语音识别等多个层面。而在谈到为什么在美国建立研发中心时,百度副总裁兼任百度美国研发中心总经理郑子斌直言不讳,人才是很重要的一个原因。这也正是国内环境所缺乏的。
伴随深度学习、人工智能的进一步发展,其实也带来了新的问题。众所周知,CPU的强项在于数据处理,而面对越来越多的图片、语音等,该怎么办?这倒也不是一个新的课题,因为在过去的HPC应用中,已经有大量使用GPU的成功经验。所不同的是本届GTC大会,NVIDIA将深度学习作为一个重点课题进行了讲解,而这也预示着其下一步的努力方向。
在大会主题演讲阶段,NVIDIA CEO黄仁勋也带来了最新产品与前代产品的对比结果,如果借助初代Titan X和CUDA技术的力量,时间就可以大幅减少至一周。而最新的Titan X和改进后的cuDNN平台,更是可以将时间进一步削减到三天!
NVIDIA深度学习合作伙伴一览,其中不乏我们所熟悉的知名厂商,包括Adobe、百度、阿里巴巴、Facebook、Google、Yahoo!、IBM、爱奇艺、搜狗等。
除此之外,为了帮助人们更好地进行深度学习方面的研究、或者开发基于神经网络的应用,NVIDIA还宣布了名为“DIGITS”的开发框架、以及被称之“DIGITS DevBox”的开发系统——后者包括了四路Titan X显卡,并且预装了常用的深度学习应用程序。
原文发布时间为: 2015年03月31日
本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。
转载地址:http://lfldx.baihongyu.com/