“大口吃电”的人工智能
众所周知,机器学习需要消耗大量的能源。算力是人工智能世界发展的基础,而算力的瓶颈归根到底是电力,那些训练聊天机器人、为文本生成视频提供动力的人工智能模型,几乎以每小时兆瓦为单位,产生巨额的服务器用电账单。
Digital Information World发布的报告显示,数据中心为训练AI模型产生的能耗是常规云工作的三倍,预计到2030年,美国数据中心的电力需求将以每年约10%的速度增长。
而训练模型,将比传统数据中心活动消耗更多电力,对电力的需求更高。以训练GPT-3大型语言模型为例,需消耗接近1,300兆瓦时的电力,这大约相当于130个美国家庭1年的用电量,而这仅仅是训练AI模型的前期电力,仅占模型实际使用时所消耗电力的40%。
据报道,2023年1月,OpenAI仅一个月已耗用可能等同17.5万个丹麦家庭的全年用电量。谷歌AI每年耗电量达2.3太瓦时,相当于美国亚特兰大州所有家庭1年的用电量。
阿姆斯特丹自由大学博士生Alex de Vries推算认为,到2027年,人工智能行业每年的电量消耗可能在85到134太瓦时之间。这几乎相当于荷兰一个国家年度电力需求,这是个相当可观的数字。
国际能源署(IEA)最近的一份报告也给出了类似的结论,指出由于人工智能和加密货币的需求,数据中心的用电量将在不久的将来大幅增加。该机构表示,2022年数据中心的能源使用量约为460太瓦时,到2026年可能会增加到620至1,050太瓦时之间,分别相当于瑞典或德国的能源需求。
随着人工智能产业的发展,电力消耗可能会更大。同时,随着人工智能的盈利,其研发公司对大模型训练的细节信息——什么样的硬件,运行多长时间等,越发保密。
人工智能公司Hugging Face的研究员Sasha Luccioni表示,对于ChatGPT,我们不知道它有多大,不知道基础模型有多少参数,也不知道它在哪里运行......研发公司的保密行为可能出于行业竞争考虑,也可能是为了转移公众的“批评”。
一些参与人工智能的公司声称,人工智能技术本身可以帮助解决高电耗问题。代表Microsoft的发言人表示,人工智能“将成为推进可持续发展解决方案的有力工具”,并强调Microsoft正在努力实现“到2030年实现负碳、正水和零浪费的可持续发展目标”。
但是一家公司的目标无法涵盖整个行业的全部需求,可能还需要其他方法。Luccioni建议行业为AI模型引入能源之星评级,使消费者能够像比较电器一样比较人工智能的能源效率。
人工智能带来的种种创新功能,都是以处理性能和功耗方面的高昂成本为代价,它并不是免费的。
编辑丨杨 朔
排版丨郑 莉
来源丨The Verge
图片来源丨千图网
原文标题 : “大口吃电”的人工智能
最新活动更多
-
11月28日立即报名>>> 2024工程师系列—工业电子技术在线会议
-
12月19日立即报名>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
即日-12.26火热报名中>> OFweek2024中国智造CIO在线峰会
-
即日-2025.8.1立即下载>> 《2024智能制造产业高端化、智能化、绿色化发展蓝皮书》
-
精彩回顾立即查看>> 2024 智能家居出海论坛
-
精彩回顾立即查看>> 【在线会议】多物理场仿真助跑新能源汽车
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论