3月11日消息,据国外媒体报道,ChatGPT为了响应用户请求,每天可能要消耗超过50万千瓦时的电力,大约是美国家庭平均用电量的1.7万多倍。
50万千瓦时是什么概念呢,美国商业用电一度约为0.147美元,约1.06元人民币,相当于一天电费53万元,一年光电费就要花2亿元。
而如果生成式AI进一步发展,耗电量还可能会更多,有研究估计,到2027年,整个人工智能行业每年将消耗85至134太瓦时(1太瓦时=10亿千瓦时)的电力。
英伟达CEO黄仁勋在公开演讲中指出,AI未来发展与光伏和储能紧密相连。
“AI的尽头是光伏和储能!我们不能只想着算力,如果只考虑计算机,我们需要烧掉14个地球的能源”,黄仁勋表示。
特斯拉CEO马斯克也提出类似看法,AI在两年内年将由“缺硅”变为“缺电”,而这可能阻碍AI的发展。
OpenAI的创始人山姆·奥特曼也表示:“未来AI的技术取决于能源,我们需要更多的光伏和储能。”
Prev Chapter:在撕裂中求前进:OpenAI最近的日子,属实不太好过
Next Chapter:中国创业者,不敢追Sora