Chat GPT每天要耗费1.7万个家庭的用电量,到底值不值?_tiknovel-最新最全的nft,web3,AI技术资讯技术社区

Chat GPT每天要耗费1.7万个家庭的用电量,到底值不值?

2024-03-17 12:10:47  浏览:180  作者:管理员
Chat GPT每天要耗费1.7万个家庭的用电量,到底值不值?

我认为到明年,你就会看到我们没有足够的电力来运行所有的芯片。

最近,马斯克在活动上表示,继之前的芯片短缺后,AI 的发展接下来将会遇上电力不足的挑战。

大家似乎都知道训练 AI 发展 AI 需要大量算力,极为耗电耗水,但我们似乎又不清楚它具体有多耗电。

即便如此,部分地区已经开始感受到由 AI 大潮带来的用电压力,而各领域的研究人员也在想方设法去对能耗进行测算。

毕竟,如果我们真要如科技巨头们所描绘般走入与 AI 紧密共存的未来,那及早计算它背后的「能源账」也是一种必要。

好奇生成一张图,就能为手机充满电?

我在用文生图模型时,常常会不自觉「贪心」。

即便图片出来质量还可以,我也总会忍不住多点几下,生成几次,或者添加一些变量,看模型会给我「造」出什么。

轻点一下就有全新演绎,这个诱惑太大了。

然而,我没想到的是,我的一次好奇点击下消耗的电量,居然已经能把我手机充满电。

去年 12 月,开源 AI 平台 HuggingFace 研究员和卡内基梅隆大学联手合作,统计了 88 个不同 AI 模型在不同任务下的用电情况。

其论文指出,图像生成模型推断 1000 次平均用电 2.907 千瓦时,而平均手机充电耗电量为 0.012 千瓦时。

不过,论文作者 Sasha Luccioni 强调,这并不意味着所有图像生成模型的耗电量都如此,因为研究测算中既然只生成 64x64 图像的小模型,也有生成 4K 高清图的模型。

相比之下,文本类模型的耗电量会低很多—— 推断 1000 次平均耗电量介乎于 0.002 千瓦时至 0.047 千瓦时。

值得指出的是,这只是 AI 模型在训练完成之后每次使用时的耗电量,训练模型本身用电量则更可观。

论文估算,GPT-3 这种体量的模型训练用电量可达 1300 兆瓦时,约等于 130 个美国家庭一年的用电量。

为什么不去算更新模型的用电量?

因为 OpenAI 变得越来越不 open,不再像几年前一样会公布训练细节,如用了什么硬件和耗时。

在白热化竞争下,各个 AI 公司也不愿公布自己的模型训练信息,一切都在变得越来越不透明。

这也是为什么 Sasha Luccioni 要用更侧面的方式来进行估算。

当然,这些数据没法代表所有人的使用情况,但至少我们有一点数据。

我想把旗子立起来,和大家说「我们就从这里开始吧。」

同样不愿被信息壁垒挡住的,还有供职于荷兰中央银行的 Alex de Vries。

de Vries 将视野拉得更广,直接跳过 AI 模型,通过计算全球被用于 AI 领域的英伟达 GPU 数量来估算这个领域的用电量。

据 de Vries 估算,到了 2027 年,AI 行业每年的耗电量将介乎于 85 - 134 太瓦时,相当于荷兰整个国家的用电量。

至于 ChatGPT 本身,de Vries 认为它每天处理 2 亿个用户请求会耗电 50 万千瓦时,这相当于一个美国家庭每天用电的量的 1.7 万倍。

如果 Google 将 AI 结合到每一次搜索中,那它一年的用电量就会飙升至 210 亿千瓦时,高于肯尼亚、克罗地亚等国家的用电量。

而和从前计算机发展不同的是,目前势态下 AI 的用电量基本很难降低。

他指出,在 2010 -2018 年期间,全球数据中心的用电量其实相对稳定,大概占全球总用电量 1%-2%。

虽然我们的生活和互联网更紧密了,用「网」频率也更高了,但硬件的效率也在提升,能抵消一下。

情况在「AI 模型大战」下改变了,巨头们只想把模型越做越大,数据越多越好:

真像是一个效率的死亡动力学。

它自然地创造了一种驱动力,让人们不停地增加算力资源,一旦模型或硬件变得更高效了,人们又要让这些模型变得更加大。

未来的问题,交给未来?

这一切对于 de Vries 来说都很熟悉。

最开始,吸引 de Vries 去做用电统计的其实是比特币。

据 de Vries,比特币挖矿现在一年仍然消耗 1450 亿千瓦时的电量,碳足迹高达 8100 万吨,比摩洛哥的年排放量都要高。

挖矿本身的模式也注定了它和「可持续」在本质上的不兼容:

我认为政策上唯一可行的做法就是要求披露数据。

我们花了那么多年才在加密行业学会这个,我真的很失望我们怎么没能早些在 AI 领域做到这件事。

就像是我们看到了挖币带来的影响,然后完全就忘了。

但和加密币行业不同的是,在各个大公司的叙事中,AI 将更紧密地融入我们的生活中,巨头们也不怕说起 AI 的耗电问题,只是解决方案也和 AGI 一样「未来」。

我们仍旧不喜欢这项技术对能源的消耗。

如果没有大突破,我们没法达到目的地。我们需要核聚变,或者极其廉价的太阳能加上存储设备,或者某种大规模的设备。

Sam Altman 在今年 1 月的达沃斯活动上如此回应 AI 的能耗问题。

此前,Altman 和微软都投资了核聚变发电初创公司 Helion。这家公司致力于 2028 年以前,建成全球首座核聚变发电厂。

这段时间引来大量关注的法国公司 Mistral AI 和美国公司 Inflection AI 则各自拿出训练成本更低的高质量模型。

这固然可以减少算力压力,但它们又是否能走出 de Vries 提及的规模循环?

这些都是要等「未来」回答的问题,但「现在」已经展露出 AI 对能源的压力。

据彭博社,为了应对用电量的飙升,美国一些电力公司在考虑解封已经封存的化石燃料发电厂,部分公司已经开始提请监管机构批准建造新的天然气发电厂。

国际能源署在今年发布的报告中预测,未来三年,全球对数据中心、加密货币和 AI 的电力需求将增加一倍以上,相当于一个德国的全部电力需求。

到了 2026 年,全球总体电力需求预计将增长 3.4%,但风能、太阳能和水能等可再生能源和核能,都无法弥补这一增长。

的确,如果我们想要一个 AI 无处不在的未来,正如 Altman 所言,真的是迫切需要重大突破。

但 de Vries 则认为,我们也可以提出一个新问题:

我们真的需要 AI 去做某些特定的任务吗?

考虑到 AI 的各种限制,它在很多地方可能都不适用,但我们就得花很长时间和大量能源去用艰难的方式才能明白这个道理。


评论区

共 0 条评论
  • 这篇文章还没有收到评论,赶紧来抢沙发吧~

【随机内容】

返回顶部