订阅
纠错
加入自媒体

AI芯天下丨清华发布《AI芯片技术白皮书》:新计算范式,挑战冯诺依曼、CMOS瓶颈

2019-01-26 10:55
Ai芯天下
关注

随着底层芯片技术的进步,人工智能算法也将获得更好的支持和更快的发展。而在这一过程中,人工智能本身也很有可能被用于研发新的芯片技术,形成算法和芯片相互促进的良性循环局面。

通过《AI芯片技术白皮书》,可以清晰地看到人工智能芯片是人工智能产业和半导体产业交叉融合的新节点,涉及多个学科、多个领域的理论和技术基础,突显对基础扎实、创新能力强的人才的需求。

AI芯天下丨清华发布《AI芯片技术白皮书》:新计算范式,挑战冯诺依曼、CMOS瓶颈

科技巨头的AI芯片动作频出

从最近几大科技巨头在AI芯片领域的动作频频就不难看出。比如亚马逊开始设计制造AI芯片,从而为Alexa语音助手的质量提升以及Echo智能音响设备提供更强大的技术能力,而苹果、三星、华为在智能手机处理器上集成深度学习引擎方面也展开了一场较量。

其背后的推动力来自于深度学习对超强算力的需求。NVIDIA显然是这波浪潮中最大的受益者,其股价从2016年的32.25美元上涨至2018年的245.8美元,两年间市值飙升近8倍。被认为是NVIDIA最大竞争对手的谷歌宣布了对第二代TPU的全面开放,而且价格诱人,每云TPU每小时6.5美元。可以说是又向NVIDIA开了一炮。

AI芯天下丨清华发布《AI芯片技术白皮书》:新计算范式,挑战冯诺依曼、CMOS瓶颈

云端+边缘结合是AI芯片发展现状

在应用场景上,AI芯片的应用主要分为云端和终端,以深度学习的算法来说,云端人工智能硬件负责“训练+推断”,终端人工智能硬件负责“推断”,因而终端的计算量更小,相对没有传输问题。

总的来说,云侧AI处理主要强调精度、处理能力、内存容量和带宽,同时追求低延时和低功耗;边缘设备中的AI处理则主要关注功耗、响应时间、体积、成本和隐私安全等问题。目前云和边缘设备在各种AI应用中往往是配合工作。最普遍的方式是在云端训练神经网络,然后在云端或者边缘设备进行推断。

①云端AI计算:目前各大科技巨头纷纷在自有云平台基础上搭载人工智能系统,主要有IBM的waston、亚马逊的AWS、以及国内的阿里云、百度云平台等。其中英伟达的GPU采用更为广泛,赛灵思、英特尔、百度等厂商也在积极采用FPGA在云端进行加速,一些初创公司,如深鉴科技等也在开发专门支持FPGA的AI开发工具。另外,AI领域专用架构芯片ASIC则因其更好的性能和功耗,成为云端领域新的搅局者,如谷歌的TPU。

②边缘AI计算:智能手机是目前应用最为广泛的边缘计算设备,包括苹果、华为、高通、联发科和三星在内的手机芯片厂商纷纷推出或者正在研发专门适应AI应用的芯片产品。自动驾驶是未来边缘AI计算的最重要应用之一,MobileEyeSOC和NVIDIADrivePX系列提供神经网络的处理能力可以支持半自动驾驶和完全自动驾驶。

AI芯天下丨清华发布《AI芯片技术白皮书》:新计算范式,挑战冯诺依曼、CMOS瓶颈

新计算范式让AI芯片更上一层楼

人工智能产业得以快速发展,都离不开芯片。随着大数据的积聚、理论算法的革新、计算能力的提升及网络设施的发展,使得持续积累了半个多世纪的人工智能产业,又一次迎来革命性的进步,人工智能的研究和应用进入全新的发展阶段。

AI芯片的计算既主要特点:

①处理内容往往是非结构化数据,如视频、图像及语音等,需要通过样本训练、拟合基环境交互等方式,利用大量数据来训练模型,再用训练好的模型处理数据;

②处理过程需要很大的计算量,基本的计算主要是线性代数运算,大规模并行计算硬件更为适合;

③处理过程参数量大,需要巨大的存储容量,高带宽、低延时的访存能力,及计算单元和存储器件间丰富且灵活的连接。

AI芯天下丨清华发布《AI芯片技术白皮书》:新计算范式,挑战冯诺依曼、CMOS瓶颈

1  2  下一页>  
声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

    人工智能 猎头职位 更多
    扫码关注公众号
    OFweek人工智能网
    获取更多精彩内容
    文章纠错
    x
    *文字标题:
    *纠错内容:
    联系邮箱:
    *验 证 码:

    粤公网安备 44030502002758号