订阅
纠错
加入自媒体

GTC 2023-黄仁勋:AI的iPhone时刻已经到来

2023-03-28 09:28
Ai芯天下
关注

前言:

GTC 2023上,英伟达创始人兼CEO黄仁勋提出全新概念:[我们正处于AI的iPhone时刻。]

黄仁勋所谓AI的iPhone时刻,即AI技术正在迎来爆发式增长,将成为数十年来最有前途的技术领域之一。

正如此前的互联网一样,生成式AI也将重塑每个行业。

作者 | 方文三

图片来源 |  网 络 

图片

老黄向AI企业喊话:A100芯片是大模型必备

由OpenAI公司开发并风靡全球的对话机器人ChatGPT,其背后所依赖的GPT-3.5模型是在搭载英伟达A100芯片的计算系统上训练而来的。

对于研究大型语言模型的公司来说,算力是其中最重要的一环,AI大模型的推理和训练高度依赖英伟达的GPU芯片。

缺少芯片会导致算力不足,计算能力不足意味着无法处理庞大的模型和数据量,最终的结果是模型存在智商差距。

图片

鉴于英伟达在高性能GPU方面的技术领先地位,一些云计算专业人士认为,1万颗英伟达A100芯片是一个好的AI模型的算力门槛。

而微软为OpenAI构建的用于训练其模型的AI超级计算机就配备了1万颗英伟达的GPU芯片。

市场研究公司TrendForce在一份报告中计算得出,要处理1800亿参数的GPT-3.5大型模型,需要的GPU芯片数量高达2万颗,未来GPT大模型商业化所需的GPU芯片数量甚至会超过3万颗。

据英伟达官方介绍,用8000片A100芯片训练具有3950亿个参数的多专家模型(MoE)需要7天,但使用8000片H100芯片可以将训练时间缩短到20小时,速度提升9倍。

换言之,H100将大语言模型的处理成本降低了一个量级。

在GTC大会上,英伟达还发布了全新的GPU推理平台,包括4种不同配置,针对不同工作负载进行优化。

分别对应了AI视频加速、图像生成加速、大语言模型(LLM)加速和推荐系统和LLM数据库,包括L4 Tensor Core GPU、L40 GPU、H100 NVL GPU和Grace Hopper超级芯片。

图片

GPU通用计算加速的又一方向

黄仁勋带来的另一项革命性技术,也关乎英伟达自身的产品研发,是一项聚焦先进芯片设计制造的技术:英伟达cuLitho计算光刻库。

它可以通过计算技术大幅优化芯片制造流程,利用GPU技术实现计算光刻,可以使传统光刻技术提速40倍以上,为2nm及更先进芯片的生产提供助力。

按照过去15年的趋势,如果某个foundry(集成电路代工厂)现有3座数据中心,那么未来10年内就要100座这样的数据中心。

功耗方面,45兆瓦可能还能接受,但如果是45千兆瓦,问题就比较大了。

包含于计算光刻中的OPC(光学临近效应修正)含有大量矩阵乘法运算,这种运算很适用于GPU加速。

计算光刻也是GPU通用计算加速的某个应用方向,站在这个角度看,就不难理解英伟达发布cuLith加速库了。

借助cuLitho,台积电可以缩短原型周期时间,提高晶圆产量,减少芯片制造过程中的能耗,并为2nm及以上的生产做好准备。

台积电将于6月开始对cuLitho进行生产资格认证,并会在2024年对2纳米制程开始风险性试产,2025年开始量产。

图片

算力云化趋势不改

云计算实现了计算的服务化,而AI对算力的需求更大,巨量的云端算力势在必行。

硬件厂商的AIGC软硬结合生态初显雏形,公司预计英伟达 DGX Cloud有望通过云端服务加速强算力硬件及AI应用软件向下游商业公司渗透。

英伟达 DGX Cloud是一项人工智能超级计算服务,它可以让企业快速访问为生成式人工智能和其他开创性应用训练高级模型所需的基础设施和软件。

英伟达 DGX Cloud提供英伟达 DGX AI超级计算专用集群,每个DGX Cloud中都集成了8个英伟达 H100或A100 80GB Tensor Core的GPU,每个节点合计有640GB的GPU,这个巨大的GPU可以满足高级AI训练的性能要求。

图片

押注未来,不止AI

经典计算以晶体管为计算单元,通过提高芯片上的晶体管密度来提高算力,但晶体管的密度不能无限大,因此经典计算算力有限。

而量子计算则可以利用量子叠加态来提供量子并行性,一次性完成所有计算,并从中举出最优方案。

英伟达 DGX Quantum是全球首个GPU加速的量子计算系统,可以实现GPU和量子处理单元(QPU)之间的亚微秒级延迟。

图片

该产品结合了通用量子控制系统Quantum Machines OPX+和英伟达 Grace Hopper超级芯片,这个平台可以为高性能和低延迟量子经典计算的研究人员提供了一种革命性的新架构。

这是首个结合GPU和量子计算的系统,其中最主要的是H100 NVL,它将英伟达的两个H100 GPU拼接在一起,以部署像ChatGPT这样的大型语言模型(LLM)。

与前者相比,现在一台搭载四对H100和双NVLINK的标准服务器速度能快10倍,可以将大语言模型的处理成本降低一个数量级。

图片

英伟达靠AI赚得盆满钵满

1993年创立的英伟达发明了全球第一块GPU,人们当时想不到,它在2016年之后促使人工智能发生了飞跃性的变化。

在OpenAI的ChatGPT与谷歌的Bard争得不可开交的情况下,作为AI淘金潮中的卖水工,英伟达可谓是赚得盆满钵满。

生成式AI的快速发展带动了对算力需求急剧增长,尤其是大型语言模型(LLM)需要规模庞大的算力。

而英伟达正好是AI算力的主要提供商。在数据中心GPU领域,英伟达市占率常年稳定在80%附近。

由于人工智能领域的算力需求约每3.5个月翻一倍,所以导致英伟达芯片常年供不应求。

英伟达数据中心业务在2022年第四季度为公司带来了60.5亿美元的收入中的36.2亿美元。

这也意味着,提供A100等芯片的数据中心业务已经在上个季度为英伟达贡献了近六成的收入,与此同时,英伟达股价今年以来更是狂涨79%。

英伟达最新股价截图,截至最新收盘总市值6471亿美元。

公开数据显示,英伟达数据中心业务在2023年Q1正式超越游戏业务成为第一大业务。

其2023财年Q3财报显示,数据中心业务同比增长31%,达到38亿美元,而游戏业务收入下降51%至16亿美元。

自今年以来,英伟达股价涨幅已超80%。

图片

结尾:

水瓶座的黄仁勋善于解决问题并拥有独特的洞察力,能够看到问题的本质,从而找到创新的解决方案。

这种创新精神使得水瓶座的人在科技行业表现出色,具有的独特思维方式和领导能力,将英伟达带来了新的创新和发展机遇。

今年以来,量子计算+人工智能的交叉研究越来越多,随着英伟达此次在GTC大会上更新GPU、入局量子计算,二者融合将进一步加快。

不过,其野心不止于此,通过押注量子计算,这表明英伟达不仅看好量子计算的未来发展,而且想在下一个量子计算时代延续优势,为用户提供算力支持。

       原文标题 : AI芯天下丨热点丨GTC 2023-黄仁勋:AI的iPhone时刻已经到来

声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

    人工智能 猎头职位 更多
    扫码关注公众号
    OFweek人工智能网
    获取更多精彩内容
    文章纠错
    x
    *文字标题:
    *纠错内容:
    联系邮箱:
    *验 证 码:

    粤公网安备 44030502002758号