Read Write Compute

生成式 AI 的能源(不)经济性

四月 11, 2026
Tags: #llm #energy #economy

最近我在本地部署了 Gemma 4,作为没网时的 vibe coding 备选。我是在笔记本电脑上部署这个模型的。当我试着问它一个简单的非编码问题,我的电脑风扇开始轰鸣——过去在用云上模型的时候,我一直都是用的节能模式,都忘了电脑上还有风扇。

今天我又测试了一下,让 Gemma 4 推荐歌单和拟一份工作邮件,这两个非编码问题分别用了161秒和163秒,工作邮件还没完全按照我的要求来。再试着让它用 Bash 列出我硬盘上最大的10个文件,不知道这次是碰到了它的专长领域还是热身完毕的缘故,只用了124秒,几乎快了四分之一。整个过程中,模型都用上了我电脑的全部 CPU 和 GPU 时间。

任何考虑使用生成式 AI 来提高生产力的企业,都应该让管理层在本地部署一个大模型,并且实际测量一下,当大模型在执行各种管理层希望交给它的任务时,总共花费了多少时间和电力。

当通过网页或者 CLI 客户端使用云上大模型的时候,用户对每一次 query 的能源消耗缺乏感知。这使人们容易产生错觉,好像每个月200美元的生成式模型订阅真的可以取代每个月成本在10000美元以上的程序员。没有体现在订阅费用中的,是生产、调配、输送和转化能量的成本。包括算力成本中的非能源部分,即设施的折旧,归根到底也在很大程度上由能源的使用来决定。如果把这些成本考虑进来,再加上公司仍然需要人员来核实生成式 AI 的输出这个事实,AI 能否实现生产力的数量级放大或者成本的可观削减,要打上一个问号。

当前这些成本因为外部化或者补贴,没有被反映在生成式模型的用户订阅价格中。比如美国的大模型厂商和一些能源公司签订的协议,实际上是把成本交给普通消费者分担,人们只觉得自己家的电费涨了,却不知道它和每天都用的 AI 有关系。又比如 OpenAI 和微软签订了协议,实际上是接受微软对其算力和能源成本的补贴,但即使如此,OpenAI 也难以打平收支,还需要继续找 AWS 这样的合作方进一步摊薄成本,哪怕冒着被微软起诉的风险。

加上一些澄清需求、调整格式的对话,我和 Gemma 4 的这次会话一共让模型工作了15分钟。以笔记本平均功耗65W和我国平均电价0.7元/度计算,我这次实验的电力终端成本大约是1分钱多一点。但这只是一个26B参数的“小”模型,而且它给我的结果还几乎都不能用。实际上能干活的商用云端模型,即使只是处理文本输入输出任务,其成本都可能数倍于此。

《麻省理工科技评论》去年5月的文章里做了个测算。一个以半业余方式使用 AI 的用户,用 AI 生成10个版本的一张图像,一段5秒的视频,至少会消耗大约2.9度的电力——足够驱动一辆轻型电动车行驶100多公里。仅从能源成本的角度,如果完全没有外部化和补贴,使用 AI 的成本还不如一个在台式机上工作的新媒体编辑,他干一天可能只同样消耗两度多电,产出通常还不止一张图和一段视频。要是他在笔记本电脑上工作,电力成本至少还能降低一半。

上面这个估计还比较保守,因为 GPT-5 等闭源模型的参数量可能更大。反过来说,如果一个新媒体编辑完全使用 AI 工作,一天出二三十秒视频和一百多版图像,这一天的 AI 能源成本可能高达几十元人民币,而他和公司的几名同事可能还在共用一个月费200美元的订阅——也就是说仅从产生输出的能源消耗角度,大模型提供商都是亏本的,更不要说算上高昂的模型训练和公司其他运营成本了。

这些成本没有直接地反映到使用模型的费用中,是因为外部性和补贴,但经济系统是一个整体,能源的生产和供应无法像 AI 部署一样放大和规模化,这些成本一定会以某种形式反馈给经济中每一个参与者。比如我们已经看到的,内存价格的上涨导致电脑整机价格的上涨,还有个人不容易看到的,比如能源价格上涨导致航运价格上涨,又导致食品价格的上升,普通消费者的钱袋子更紧,导致你的获客成本上升。

而大模型提供商的补贴不会永远持续下去,正如不存在永动机。或迟或早,提供商们都将不得不让定价更真实地反映实际成本。到那时,我们可能会发现生成式 AI 带来的“降本增效”作用是非常有限的。

和蒸汽机、电力、工业自动化这些科技进步不同,AI 产生在一个生产力已经大范围过剩的时代,这或许是我们在大模型技术已经问世将近10年之后,还在摸索到底能用它来干吗的原因。在全球南方,AI 并不能满足那些“线下”的需求。在把 AI 应用于农业生产提高产量之前,还有一大堆基础设施和体制的问题需要在那些地方先得到解决,否则哪怕多生产出10倍的玉米,也只能大量拉到当地的市场上,摧毁当地的价格体系,导致农民再也不想种玉米。

而在发达国家,微软、谷歌在用大量的算力在 Outlook 和 Google Docs 里帮你起草邮件和公关稿,不过是在高效地生产早已过剩的文本而已。[1]你用 AI 瞬间生成邮件和文档,另一端又瞬间让 AI 把它总结成一句话,并不会让你和对方能在一天里处理更多的事情,它仅仅是让人用更多的时间生成和处理文本而没有提高生产力——也就是促进内卷。

而以 Agent 的方式使用 AI 的能力,需要网络、自动化方面的基础设施作为前提,更需要人把过去放在自己脑袋里的隐式知识转换成 skill、harness,或者还没出现的其他什么词儿所指代的文本。包括 vibe coding 在内,AI 这些新出现的用法仍然需要一个人来判断和评估真实世界的状态和变化,但 AI 本身并没有提供可靠、高效地让这个人来做这些工作的工具。[2]人的脑力仍然是瓶颈,而这一次,AI 并没有像计算机的发明那样提供可以带来实际改变的“自行车”。

一方面,我们并没有发现在 AI 能做的事情中,有什么是我们当下就有相对于生产能力有以10倍计的需求的,可能在今后的很长一段时间内我们都发现不了。同时对 AI 的产出做把控这个人,能获得的效率提升通常小于 5x。最近 cURL 这个在所有消费级 IT 产品中几乎都要用到的项目是个典型的例子,说明人的脑力和精力才是瓶颈:虽然 vide coding 带来了大量的 bug report 和代码修改方案,但不经审核采纳这些修改建议中的任何一个,都可能导致涉及数以亿计的用户无法正常上网,项目的维护团队又找不到熟悉项目的新维护者加入,只能暂停接受新的 bug report。可以想见在软件开发中也是如此,虽然编码能力提高了,但是要提高做功能、修 bug 的能力,还是得多招三个臭皮匠或者一个诸葛亮。综合起来,当前生成式 AI 能够带来的生产力提升最多也就是 x1.5、x2,而且集中在软件开发这个从计算机的自动化能力受益最多的领域。当 AI 算力(能源消耗)的外部性消失,我们可能会发现如果任何人想以目前的用户支付费用提供同样的生成式 AI 能力,他都只能当掉底裤然后去裸泳。

另一方面,这种生产力的提升即使真的存在,也没有被整个社会享受到,受益的只是岗位越来越少的公司里越来越“资深”的一小部分人。同样卖70美元的游戏,在 AI 的帮助下开发投入从1万人月变成了2000人月,当然挺好,但这后面可能是公司原本聘用的1000人中有800个都要被解聘或者降薪,~增加收益~节省成本的大头被少数人拿走了。而玩家并不会因为开发周期的缩减,在一年里买更多的游戏。相反,这些被解雇的人自己可能还是游戏玩家,他们一段时间内不会再买老东家或者其他厂商的游戏了,整个市场都会缩水。生成式 AI 的应用虽然提高了产能(capacity),却让消费能力大大降低了。这简直就是我们再熟悉不过的制造大萧条的配方,那是集中在少数人手中的金钱的味道。这个现象加上现在由整个社会各行各业承担的能源和基础设施外部性,构成了 AI 崩盘最可能的促动因素。


  1. 我们甚至不能说它在生成信息。信息这个概念暗示着认识和判断,这些都是生成式 AI 不具备的能力,它的输出只是看起来像那么回事,正确、有用与否需要人的判断,也就是说实际提供信息的还是人。 ↩︎

  2. 以当前生成式 AI 最具备实用价值的 vibe coding 为例,它大量借助的是已有的范式和命令行工具,也就是说其实只是在帮你写命令和脚本,而且还需要你来确认这些输出不会产生灾难性的结果。这个确认和修订的过程需要的时间,很多时候并不比人自己琢磨出结果的时间短多少。 ↩︎