谷歌FB都把人工智能的研究方向搞错了?
深度学习的坎坷之路
2012年11月23日,应该是一个让时任谷歌人工智能实验室专家的Geoff Hinton倍感欣慰的日子,在这一天,纽约时报发布了名为《Scientist See promise in Deep Learning Program》(科学家们在深度学习上看到了希望)的报道,正式标志着深度学习被学界乃至全社会完全接受,从那时开始,Hinton大神数十年的默默坚持,终于给深度学习带来了一段持续至今的全盛期。
谁也无法否认在计算能力爆炸性增长的今天,的深度学习确实取得了巨大的成就,每一个置身于AI研究行业的人或许都永远不会忘记,在李世石和AlphaGo的对决中,人们的态度由最初的漫不经心,到中间的震惊和沉默,第四局李世石战胜之后的狂喜,和最终的叹息和敬佩。可是在这股科学界“全民DL”的风潮下,却逐渐有人开始对它提出了自己的质疑。
CVPR2016上,Mobileye的CTO Amnon Shashua在演讲中说道:他认为深度学习的研究绕了远路。因为真正的AI应该能帮人类解决人类解决不了的问题,而目前的AI的表现却仅限于人类已经能非常明确的理解和解释的领域。
同样是在CVPR期间,巴黎高等计算机视觉研究所的主任Nikos Paragios表示,深度学习方法几乎已经垄断了目前的计算机视觉,甚至是AI科研领域的所有研究,导致其他的方法和基础研究无人问津,对此感到有些担忧。
而在本届的IJCAI上,在计算机哲学上已有数十年经验的Aaron Sloman也在演讲中表示,自己认为AI作为一门科学(而不是工程学)已经在过去的二三十年间失去了方向。
今天Facebook搞了个大新闻:有多家主流媒体报道了Facebook即将建立的新数据中心和专为深度学习而研制的服务器Big Sur,而这个新闻却反而再次唤醒了我们心中的疑问:Facebook和Google它们现在努力的方向,会不会错了?
让我们先来看看关于Facebook这个服务器的其中一条新闻吧:
走进Facebook AI数据处理的心脏
从北美的西部访问facebook的话,你的访问数据有很大可能会经过一个位于俄勒冈州中心的高地沙漠中一块被充斥着满满的杜松香气的空气所冷却的服务器群。在普林维尔的市区,一个有大概9000人常住着的地方,Facebook存储着他们数以亿计的数据。一行一行的电脑整齐的排列在四座总占地面积将近75000平方米(800000平方英尺)的巨型建筑里。这些建筑被设计成刚好能让从西北吹来的干燥,并且通常相当凉爽的风吹进它们之间。过道中堆叠着的服务器闪着蓝色和绿色的灯,发出着单调的噪音,但在内部它们其实每时每刻都在不间断的处理着Facebook登陆、赞和“大笑”之类的服务进程。
Facebook最近在普林维尔的设备中加入了一些新的机器:他们在这里安装了一组全新的,用来加速训练类似翻译软件、私人助手和文字理解之类程序的高性能服务器。
这些最新的“大苏尔”服务器(Big Sur servers)是围绕一种最初被制造用来进行图像处理的,以GPU的名字为大众所知的高性能处理器而设计的。这些芯片对最近AI领域取得了极大发展的深度学习技术有着更好的支持。在GPU的支持下,曾经的深度学习软件得以处理规模和复杂程度大得多的数据集,因而在最终识别图像和语音等方面应用的效果取得了显著的改善。
Kevin Lee,Facebook的一名服务器工程师说,由于拥有了更快的速度,他们得以帮Facebook的研究者们用更多数据训练了他们的深度学习软件,“这些服务器都是针对AI研究和机器学习计算而特制的。”他说,“这些GPU可以把图片分成无数个细小的局部然后同时处理它们。”
Facebook在每台大苏尔服务器上放置了大概8台NVIDIA——这种芯片的领导级制造商——制造的GPU。Lee不愿透露已经部署了多少台这种服务器,但是他说Facebook至少已经有数千个GPU投入工作了。大苏尔服务器已经被安放在了公司在普林维尔、阿什本和弗吉尼亚的数据中心。
由于GPU的耗电量极其庞大,Facebook不得不用比其它服务器更低的密度来在数据中心中布置这些服务器,否则可能会形成一些过热的情况,不仅会对冷却系统造成更大的负担,也会消耗掉更多的能量。一个2.1米(7英尺)高的机架上可以堆叠8台大苏尔服务器 ,而相同的机架可以容纳30台标准的Facebook服务器,如果是处理日常任务的话,它们其实可以做得更快。
Facebook远远不是唯一一家运行着庞大的数据中心以及使用GPU来进行机器学习研究的公司。微软、谷歌和中国的百度都正在使用GPU来加速它们的研究进度。
对Facebook来说不太寻常的一件事就是它公开了大苏尔服务器和其它服务器的设计,以及将在普林维尔建立的数据中心。他们将这些信息在一个2011年Facebook建立的以鼓励计算机公司共同进行低成本计算设备开发为目的的叫做“开源计算计划”(Open Compute Project)的计划中贡献了出来。这项计划被看做帮助了亚洲国家的硬件公司以及挤压了像戴尔和惠普这样的传统供应商的生存空间。
今年早些时候大苏尔计划公布的时候,Facebook人工智能实验室的主任燕乐存(Yann LeCun)说,他相信通过促进更多的组织和公司建立更强大的进行机器学习的基础设施,这个开源计划可以加速相关领域的研究进度。
普渡大学的一位副教授Eugenio Culurciello说,深度学习的实用性意味着这种芯片几乎一定会被广泛使用。他说,“这种需求已经很大了,而且在将来也只会越来越大。”
在被问及Facebook有没有在着手研发自己的定制芯片时,Lee说,“公司正在考虑。”
战术的勤奋与战略的懒惰
Big Sur的特点是什么?是每台服务器中都装有8个NVIDIA生产的高端独立GPU。如大家所知,由于服务器的职能特点,其实一般的服务器内部是没有“三大件”中的独立GPU,只有CPU和内存的。因为GPU的耗电量和发热量都太大了。而其擅长的计算形式又不能对服务器的常用计算需求起到太大的帮助作用。因此不太适合用在一般的服务器中。但是Facebook却为了深度学习而专门设计了这款带有8个独立GPU的服务器,甚至不惜以减少每个机架上的服务器数量来优化对深度学习程序的计算速度。可谓是下了血本。
而互联网领域的其他大公司也没闲着,如文中所说,微软、谷歌、甚至是百度都在使用GPU、甚至开发自己的专用芯片来加速深度学习。在这些巨头们的推动下,深度学习算法的反应也是越来越快,精度也越来越高。
这不是好事吗?
答案是:我们真的没法知道。目前的大多数深度学习模型建立的过程,都是先建立相当有针对性的函数,再用庞大的,极有针对性的数据去训练它们,最终得出一个很有针对性的概率选择程序。也就是说,现在的深度学习AI你教它下棋,它就只会变得越来越会下棋,你教它识图,它就只能越来越会识图,而且它们识图和做事的方式,说白了是经过一系列的判断后判断结论有99.8%的可能是选择A,有0.2%的可能是选择B,于是便选择了A这样的过程。当然,它们下棋和识图的水平会变得很厉害,甚至变得比人类还厉害。但是终究还是只能限制于那个单独的领域。你要问我们,或者问那些专家,我们能肯定这样的程序发展下去,就一定能发展出真正的智能吗?至少我们觉得,这些深度学习程序真的不太像是能发展处终极形态的AI的样子。
Facebook的服务器固然十分强大,但它本质上仍然是冯诺依曼架构下的一台比较快的电脑而已。它的面世不过是人工智能军备竞赛中的一环,对于深度学习理论的整个发展,其实起不到什么作用。包括谷歌的TPU,和逐渐开始走入很多人视野中的FPGA,也都只是一种“器”,虽然有“工欲善其事必先利其器”的古训,但我们也都知道,有时候光有好的工具还是不够的。深度学习的效果太好了,以至于让很多专家忘了,其实人们还不知道真正的人工智能应该怎么去实现。
不过,确实也有不少专家都看到了这一点。斯坦福人工智能实验室负责人李飞飞最近在同硅谷*投资机构a16z的合伙人Frank Chen交流时就说道:她的下一个梦想就是能教会机器人怎么去学习,而不只是模仿训练数据。
而深度学习和计算机视觉公司商汤科技的执行研发总监曹旭东也提到过:做深度学习的人其实都有一个终极的追求,就是改变现在深度学习比较傻的以监督学习为主流的模式,让机器人的行为更加聪明,可以像人一样学习。
目前学界向这个方向努力的表现是大力发展半监督学习和无监督学习,努力提高深度学习的学习效率和降低对样本的需求量。不过这一切毕竟还是在深度学习的框架内来进行的,谁也说不好无监督学习的量变能否引起质变。
所以也不奇怪逐渐开始有一些人已经开始怀疑深度学习对AI的发展到底有没有那么重要了。让我们回到Facebook的服务器上。其实无论是Facebook也好,谷歌也好,微软、亚马逊还是百度也好。我们没有理由责怪他们对深度学习的热情。毕竟作为一个商业公司,深度学习已经能在他们的研究领域上给他们带来足够多的成果收益,而他们对最终成效的渴求也正是深度学习能得到快速的发展的原因之一。
但资本的力量虽然强大,毕竟还是逃脱不了那一点逐利的本质,难免陷入对短期利益盲目的追逐。而能抛开短期的利益着眼于长期的考量和探索,正是学界相对于产业界在研究上最大的优势之一。
我们并无意否定任何人在AI的研究上做出的努力,只是我们希望给大家展现一个这样的可能性,希望大家在研究和讨论之余能偶尔想起它来,毕竟它有可能是真实存在的:
万一最后能实现真正意义上的人工智能的方法,和深度学习一点关系都没有呢?
上一篇: 【读书笔记】iOS-自定义 URL Scheme 完全指南
下一篇: 云计算“大脑”技术落地