陈根:GPT成为耗电狂魔,一年电费2亿元?

文/陈根

3月11日,《纽约客》发布的一篇文章引起了广泛关注。根据文章报道,ChatGPT每天大约要处理2亿个用户请求,每天消耗电力50万千瓦时,相当于美国家庭每天平均用电量(29千瓦时)的1.7万多倍。

也就是说,ChatGPT一天的耗电量,大概等于1.7万个家庭一天的耗电量,ChatGPT一年,光是电费,就要花2亿元。

《纽约客》还在文章中提到,根据荷兰国家银行数据科学家Alex de Vries的估算,预计到2027年,整个人工智能行业每年将消耗85至134太瓦时的电力(1太瓦时=10亿千瓦时)。这个电量相当于肯尼亚、危地马拉和克罗地亚三国的年总发电量。《纽约客》的消息一出,直接冲上了微博热搜。

事实上,在这之前,关于AI耗电的讨论就已经有很多了,不管是研究报告还是调查数据,都显示人工智能已经成为了耗电大户,并且,随着人工智能的发展,耗电量还会越来越大。

人工智能为啥这么耗电?这其实和人工智能的工作原理有关。人工智能工作原理的核心,就是计算。而本质上,计算就是把数据从无序变成有序的过程,这个过程则需要一定能量的输入。特别是为了处理海量的数据和复杂的计算任务,人工智能系统需要强大的计算能力和存储设备,而这些设备在运行过程中会产生大量的热量和能耗。

并且,随着人工智能技术的不断发展,对芯片的需求也在急剧增加,进一步推动了电力需求的增长。

可以很明确的说,人工智能如果想进一步发展和突破,或者说人工智能如果要真正地进入人类社会中应用,必须要解决耗能问题。

如果依然是遵照传统路径,继续购买计算机,人工智能将会成为电力需求的无底洞。对于AI耗能的问题,奥特曼也曾警告说,下一波生成型人工智能系统消耗的电力将远远超出预期,能源系统将难以应对。马斯克也多次表达了对未来能源基础设施,尤其是电力和变压器短缺将成为AI技术突破运行的瓶颈,而这种电力短缺最早可能在2025年就会出现。

而解决耗能问题的关键,就在于发展新的能源技术,比如可控核聚变,或者更便宜的太阳能及存储等等。说到底,科技带来的能源资源消耗问题,依然只能从技术层面来根本性地解决。

免责声明:该自媒体文章由实名作者自行发布(文字、图片、视频等版权内容由作者自行担责),且仅为作者个人观点,不代表 秒送号Miaosong.cn立场,未经作者书面授权,禁止转载。[投诉 · 举报作者与内容]

「作者 · 档案」
预见未来科技与商业,洞察前沿趋势新变化。

  
(0)

相关阅读

发表回复

登录后才能评论
发布