GPT成为耗电狂魔,一年电费2亿元?
文/陈根
3月11日,《纽约客》发布的一篇文章引起了广泛关注。根据文章报道,ChatGPT每天大约要处理2亿个用户请求,每天消耗电力50万千瓦时,相当于美国家庭每天平均用电量(29千瓦时)的1.7万多倍。
也就是说,ChatGPT一天的耗电量,大概等于1.7万个家庭一天的耗电量,ChatGPT一年,光是电费,就要花2亿元。
《纽约客》还在文章中提到,根据荷兰国家银行数据科学家Alex de Vries的估算,预计到2027年,整个人工智能行业每年将消耗85至134太瓦时的电力(1太瓦时=10亿千瓦时)。这个电量相当于肯尼亚、危地马拉和克罗地亚三国的年总发电量。《纽约客》的消息一出,直接冲上了微博热搜。
事实上,在这之前,关于AI耗电的讨论就已经有很多了,不管是研究报告还是调查数据,都显示人工智能已经成为了耗电大户,并且,随着人工智能的发展,耗电量还会越来越大。
科罗拉多大学与德克萨斯大学的研究人员在一篇名为“让AI更节水”的预印论文中也发布了训练AI的用水估算结果,显示训练GPT-3所需的清水量相当于填满一个核反应堆的冷却塔所需的水量。并且在使用过程中,ChatGPT(在GPT-3推出之后)每与用户交流25到50个问题,就得“喝下”一瓶500毫升的水来降温。
人工智能为啥这么耗电?这其实和人工智能的工作原理有关。人工智能工作原理的核心,就是计算。而本质上,计算就是把数据从无序变成有序的过程,这个过程则需要一定能量的输入。特别是为了处理海量的数据和复杂的计算任务,人工智能系统需要强大的计算能力和存储设备,而这些设备在运行过程中会产生大量的热量和能耗。
并且,随着人工智能技术的不断发展,对芯片的需求也在急剧增加,进一步推动了电力需求的增长。
可以很明确的说,人工智能如果想进一步发展和突破,或者说人工智能如果要真正地进入人类社会中应用,必须要解决耗能问题。
如果依然是遵照传统路径,继续购买算力来扩增人工智能的计算能力,那么人工智能将会对电力的需求形成一个无底洞。对于AI耗能的问题,奥特曼也曾警告说,下一波生成型人工智能系统消耗的电力将远远超出预期,能源系统将难以应对。马斯克也多次表达了对未来能源基础设施,尤其是电力和变压器短缺将成为AI技术突破运行的瓶颈,而这种电力短缺最早可能在2025年就会出现。
而解决耗能问题的关键,就在于发展新的能源技术,比如可控核聚变,或者更便宜的太阳能及存储等等。说到底,科技带来的能源资源消耗问题,依然只能从技术层面来根本性地解决。
当然这也让我们看到为什么奥特曼在打造通用人工智能的道理上,也提前投资了可控核聚变公司的初衷。曾经的赶英超美,今天回头看我们是最大的粮食进口大国;如今国内一些人工智能企业喊出的赶超OpenAI,过几年回头看,大家觉得会是一个什么结果?
原文标题 : 陈根:GPT成为耗电狂魔,一年电费2亿元?
最新活动更多
-
12月12日火热报名中>>> STM32全球线上峰会
-
即日-12.18立即报名>>> 【在线会议】Automation1微纳精密运动控制系统
-
12月19日立即报名>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
即日-12.26立即报名>>> 【在线会议】村田用于AR/VR设计开发解决方案
-
即日-12.26火热报名中>> OFweek2024中国智造CIO在线峰会
-
1月8日火热报名中>> Allegro助力汽车电气化和底盘解决方案优化在线研讨会
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论