中美GPU差距超10年,ChatGPT与中国无关?
自从今年ChatGPT爆火之后,就有很多的网友有疑问,为何ChatGPT这样的AI应用,没有首先诞生在中国,不是说中国AI全球领先了么?
后来有人表示,还是GPU芯片的问题,因为ChatGPT背后,其实是GPU算力堆出来的,而中国的GPU芯片,与美国GPU芯片,至少有10年的差距,所以ChatGPT无法诞生在中国。
拿ChatGPT来说,其背后至少应用了3万块以上的Nvidia的A100这样的GPU芯片,而这种芯片是对中国禁销的,所以中国版ChatGPT难诞生。
但是,没有顶级的GPU芯片,中国版的ChatGPT就没法诞生了?当然不是的,这不百度就站出来打脸了。
前几天百度发布了文心一言,这是类似于ChatGPT的新一代大语言模型的生成式 AI,它具备在文学创作、商业文案创作、数理推算、中文理解、多模态生成五个使用场景中的综合能力。
发布会的现场,李彦宏进行了演示,从现场展示来看,文心一言某种程度上具有了对人类意图的理解能力,并基于百度庞大的训练数据,直接进行总结、解答。
当然,最重要是,百度的文心一言背后,使用的是不是NVIDIA的GPU,也不是AMD的GPU,而是百度自研的芯片,它就是昆仑一号。
昆仑一号芯片是2020年量产的一颗通用AI芯片,是百度自研的,采用14nm工艺,实测有200多TOPS的实际的性能,对比业界最先进的T4的GPU(70TOPS左右),有T4芯片3倍的性能提升。
这种昆仑一号芯片,特别适合大模型做推理,也适合做训练,所以被百度用在了文心一言的大模型的推理上。
而使用昆仑一号,一方面不用担心被卡脖子了,毕竟使用NVIDIA、AMD的GPU,就相当于脖子被人卡住了,对方随时可以断供。
此外,还能够节省成本,比如买一块NVIDIA的A100芯片,需要1万多美元,近10万人民币,但按照百度的说法,使用昆仑一号芯片的话,可能只要2万元人民币就搞定了。
近日,百度也表示昆仑二号芯片,也即将来了,采用7nm工艺,与第一代芯片相比,性能提高了3倍,还带有高速片间互联,且有多款细分型号,覆盖云训练、云推理以及边缘计算等优势。
可见,也不是非得使用NVIDIA、AMD的GPU芯片,国产自研的AI芯片,也一样能够胜任的,要自信一点,国外的月亮并不比中国的圆。
原文标题 : 中美GPU差距超10年,ChatGPT与中国无关?百度自研AI芯片来打脸
最新活动更多
-
11月28日立即报名>>> 2024工程师系列—工业电子技术在线会议
-
12月19日立即报名>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
即日-12.26火热报名中>> OFweek2024中国智造CIO在线峰会
-
即日-2025.8.1立即下载>> 《2024智能制造产业高端化、智能化、绿色化发展蓝皮书》
-
精彩回顾立即查看>> 2024 智能家居出海论坛
-
精彩回顾立即查看>> 【在线会议】多物理场仿真助跑新能源汽车
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论