订阅
纠错
加入自媒体

中美GPU差距超10年,ChatGPT与中国无关?

自从今年ChatGPT爆火之后,就有很多的网友有疑问,为何ChatGPT这样的AI应用,没有首先诞生在中国,不是说中国AI全球领先了么?

后来有人表示,还是GPU芯片的问题,因为ChatGPT背后,其实是GPU算力堆出来的,而中国的GPU芯片,与美国GPU芯片,至少有10年的差距,所以ChatGPT无法诞生在中国。

拿ChatGPT来说,其背后至少应用了3万块以上的Nvidia的A100这样的GPU芯片,而这种芯片是对中国禁销的,所以中国版ChatGPT难诞生。

但是,没有顶级的GPU芯片,中国版的ChatGPT就没法诞生了?当然不是的,这不百度就站出来打脸了。

前几天百度发布了文心一言,这是类似于ChatGPT的新一代大语言模型的生成式 AI,它具备在文学创作、商业文案创作、数理推算、中文理解、多模态生成五个使用场景中的综合能力。

发布会的现场,李彦宏进行了演示,从现场展示来看,文心一言某种程度上具有了对人类意图的理解能力,并基于百度庞大的训练数据,直接进行总结、解答。

当然,最重要是,百度的文心一言背后,使用的是不是NVIDIA的GPU,也不是AMD的GPU,而是百度自研的芯片,它就是昆仑一号。

昆仑一号芯片是2020年量产的一颗通用AI芯片,是百度自研的,采用14nm工艺,实测有200多TOPS的实际的性能,对比业界最先进的T4的GPU(70TOPS左右),有T4芯片3倍的性能提升。

这种昆仑一号芯片,特别适合大模型做推理,也适合做训练,所以被百度用在了文心一言的大模型的推理上。

而使用昆仑一号,一方面不用担心被卡脖子了,毕竟使用NVIDIA、AMD的GPU,就相当于脖子被人卡住了,对方随时可以断供。

此外,还能够节省成本,比如买一块NVIDIA的A100芯片,需要1万多美元,近10万人民币,但按照百度的说法,使用昆仑一号芯片的话,可能只要2万元人民币就搞定了。

近日,百度也表示昆仑二号芯片,也即将来了,采用7nm工艺,与第一代芯片相比,性能提高了3倍,还带有高速片间互联,且有多款细分型号,覆盖云训练、云推理以及边缘计算等优势。

可见,也不是非得使用NVIDIA、AMD的GPU芯片,国产自研的AI芯片,也一样能够胜任的,要自信一点,国外的月亮并不比中国的圆。

       原文标题 : 中美GPU差距超10年,ChatGPT与中国无关?百度自研AI芯片来打脸

声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

    人工智能 猎头职位 更多
    扫码关注公众号
    OFweek人工智能网
    获取更多精彩内容
    文章纠错
    x
    *文字标题:
    *纠错内容:
    联系邮箱:
    *验 证 码:

    粤公网安备 44030502002758号