订阅
纠错
加入自媒体

人工智能急需变革?互联网企业比英特尔更想蹚这一池芯片水

2019-02-27 09:45
来源: 镁客网

新年刚过,人工智能界先后有两次理论上的新知公诸于世:一是图灵奖获得者David Patterson与John Hennessy发布论文称计算机体系结构的新黄金时代将到来,二是计算机视觉奠基者之一Alan Yuille公开怼了一波深度学习,他认为神经网络已进入瓶颈期,现在科研人员一股脑儿涌入深度学习不利于软件算法的发展。

透过两则消息,不难察觉到人工智能产业急需变革的呼声已经十分强烈,无论是硬件端还是软件算法,而它确实要迎来了新的发展阶段。事实上,随着市场需求变化和技术迭代,一直以来软件算法和硬件芯片虽各自发展却也如两股互相“博弈”的力量般纠缠不休。而当深度学习发展步入模式时,一边是专家对创新衰退的忧虑,另一边则预示着深度学习架构的发展已经迈入一定的成熟阶段,此时将部分功能下沉到硬件端的需求则顺势衍生。

图 |《计算机体系结构的新黄金时代》

在《计算机体系结构的新黄金时代》中,Patterson和Hennessy这样写道,“计算机体系结构领域将迎来又一个黄金十年,就像20世纪80年代我们做研究那时一样,新的架构设计将会带来更低的成本,更优的能耗、安全和性能。”如所言,在深度学习算法热潮过后,2019年的硬件产业也开始了新的蠢蠢欲动,而在AI赋能应用的大背景下,它具体表现为推理芯片市场的崛起。

英特尔沉不住气了,推理芯片市场开启群雄争霸

回到2019年年初前后这一期间,迎来了历史转型期的芯片市场可以说动荡不安,一边存储芯片价格在涨一波跌一波的云雨之中起伏;另一边为了满足人工智能催生的产能需求,英特尔、美光等老牌IDM厂商开始大肆兴建起工厂。而不同于已有的成熟市场,有一部分新兴的AI芯片市场也逐渐有了蓬勃生长的态势,产业化发展向好。

“苗头”就出现在CES 2019上,英特尔高调宣布与Facebook合作开发一款AI推理芯片,并宣称将于2019年下半年完成。

在曝光度极高的CES上,提前半年大肆宣传并隆重预告这一款公众并不熟知的推理芯片,作为x86架构缔造者,占据数据中心服务器市场90%份额的英特尔,显然有些沉不住气了。

图 | 英特尔宣布与Facebook合作推出推理芯片

无独有偶,在研发推理芯片这件事情上,各家有能力争一块蛋糕的厂商也都开始摩拳擦掌,不出意外得集中在2019年前后几个月推出自家产品。2018年9月,英伟达推出自己的推理预测芯片;11月,亚马逊召开re:Invent大会,在会议上隆重发布了一款专用推理芯片AWS Inferentia,以用于自己的服务器推理任务处理;而阿里也透露了自己首款推理芯片Ali-NPU的发布时间,同Facebook相近,定在了2019年中。

在2019年前后巨头们不约而同得带起了一波“节奏”,这样的集群效应或多或少说明了专用推理芯片系统市场已经开始要“变天”。

数据统计显示,到2021年,训练市场规模将增长到82亿美元,而推理市场规模将达到118亿美元,超出前者近四十亿美元。时间紧迫,机会转瞬即逝,在没有巨头的大片“蓝海”市场面前,换作谁都是要坐不住的。

一场由互联网企业引发的芯片之战

既知是蓝海,早些年亦有许多科研院所在积极研究,巨头们却都到今年才迟迟动手,是为何?

Facebook公开道出了其中的缘由。

去年四月份,Facebook暗地里组建芯片团队的事情被彭博社报道,称它想摆脱对英特尔和高通的依赖,随后成为热议的焦点。后没有多久,在一年一度的大会上,Facebook的高管大大方方承认了。

作为一家互联网公司,Facebook坦言它的初衷不是为造芯片而造芯片,实则是深受成本成倍增加之苦但同时又寻不到更优硬件方案,无奈使然。2018年末的大会上,对于这一点,Facebook高管Jason Taylor就直接毫不留情的怼了当时市面上的推理芯片:“市面上是有很多加速器芯片,但是我们发现他们设计的芯片在完成关键工作负载任务的能力上,值得考量。”

言下之意,Taylor认为很多公司在没有弄清楚深度学习应用端需要处理的推理任务有哪些就开始造芯片,颇有乱打乱撞的嫌疑。而在深度学习算法的应用上,以精准营销著长的Facebook似乎也更有发言权。

图 | 精准营销

据公司工程师Kim Hazelwood介绍,每天Facebook的AI应用程序产生超过200万亿个推送,翻译超过50亿个文本,并自动删除超过一百万个假账户,在推理功能上,Facebook的任务计算量是其他任务的100倍。官方透露的数据显示,2018年,Facebook的资本支出大约在140亿美元,2019年,这个数字预计将增长到200亿美元,其中很大一部分支出都在数据中心服务器上。

但苦于没有合适替代方案,今天Facebook还不得不采用“CPU+GPU”的服务器。

和Facebook类似,最接近应用,需求也是最为强烈,因而谷歌、亚马逊、阿里等将人工智能与互联网应用融合密切的企业都不可避免的遇到了这个问题,因而也陆续开启了自研芯片之路。

不可不知的“鼻祖”

在这组互联网梯队中,谷歌是第一位吃螃蟹的“人”,同时它用这个秘密武器助力AlphaGo战胜李世石,引起轰动。而这里的秘密武器就是谷歌TPU(张量处理单元)。

图 | 谷歌TPU

其实2017年,当谷歌重磅推出TPU时,很多人都好奇作为一家成功的互联网公司,谷歌怎么突然有兴趣做起了芯片,还做出了这样一款“脑洞大开”的芯片?

在后来的公开论文中,谷歌提到其实自己的软件服务背后需要庞大的服务器网络在支持,即需要难以计数的硬件服务器日夜运行。提供的数据显示,为了支持各类大量的数据应用,谷歌当时已经在全球四个洲建有15个仓库般大小的数据中心。

但是随着深度学习算法的出现,令谷歌自己惊奇的事情发生了。在后来计算机架构专家David Patterson和Norm Jouppi合著的论文中,他们提到这样一个细节:六年前,谷歌开始为安卓操作系统添加语音识别功能之后,原来相对充裕的计算能力突然间捉襟见肘,根据当时谷歌工程师的推算——如果世界上每一台安卓手机每天都使用3分钟的语音搜索功能,且识别率百分之百正确,即一次搜索成功,那么谷歌的数据中心的规模就起码要翻倍。

这样的解释,与Facebook后提到的境况几近相同。

意识到这样的问题,谷歌为这样的大规模扩张需求而背后生寒,更何况当时还只是深度学习算法应用刚刚开始的阶段。因此在慎重考虑了语音识别技术的迅速发展和推理运算需求的激增等情况之后,谷歌决定开发专属推理芯片以替代性能不足的CPU,即后来的TPU。

不过当时外界只知谷歌街景、AlphaGo等应用中用到了TPU,对于“蒙上一层面纱”的TPU到底为何物,众说纷纭。后来直到看见谷歌公开发表的TPU论文并眼见AlphaGo的成功,众人才意识到谷歌TPU划时代的意义。

寒武纪陈天石毫不吝啬得用了“浓墨重彩”一词盛赞其对于整个产业发展的意义;而英伟达黄仁勋也不惜亲自撰写长文来回应谷歌TPU与自己产品的对比,虽然言语之中难掩对英伟达技术的偏袒,但也只有势均力敌的对手值得“老黄”如此重视。

后来Jouppi在一篇论文中这样评价这款芯片,“这并不意味着TPU有多复杂,它看起来更像雷达的信号处理引擎,而不是标准X86架构。而且它与浮点单元协处理器更为神似,跟GPU倒不太一样。”

所谓创新,大概如此。

1  2  下一页>  
声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

    人工智能 猎头职位 更多
    扫码关注公众号
    OFweek人工智能网
    获取更多精彩内容
    文章纠错
    x
    *文字标题:
    *纠错内容:
    联系邮箱:
    *验 证 码:

    粤公网安备 44030502002758号