AI 的经济账算不通

整理自:https://www.wheresyoured.at/ais-economics-dont-make-sense/

简介

这篇文章讨论的不是「AI 有没有用」,而是「现在这套 AI 商业模式能不能成立」。

作者 Ed Zitron 的核心判断很直接:生成式 AI 的成本一直被订阅制隐藏了。用户每月付 20 美元、100 美元或 200 美元,看起来像是在购买一个普通 SaaS 服务,但后台实际消耗的是 GPU 推理、上下文窗口、工具调用和反复重试产生的 Token 成本。

如果这些成本真实地向用户展开,很多 AI 产品的体验和价值判断都会发生变化。

Copilot 调价

文章的切入点是 GitHub Copilot。

GitHub 宣布从 2026 年 6 月 1 日开始,将 Copilot 的所有计划改为基于实际使用量计费。也就是说,用户不再只是购买一个固定额度的「请求」,而是要为背后的模型成本买单。

这件事很有代表性。

过去几年,很多 AI 产品都在做一件事:用低价订阅吸引用户,让用户习惯高频使用,再由平台承担大量推理成本。用户感受到的是「我已经付过钱了」,但平台看到的是另一张账单。

Copilot 的变化说明,至少在代码 Agent 这类高消耗场景里,这套补贴模式已经很难继续维持。

订阅制的问题

传统订阅制适合成本相对稳定的产品。

例如云文档、网盘、健身房会员,重度用户当然会多消耗一些资源,但整体成本是可以被估算和摊平的。

LLM 不一样。

一个用户只是偶尔问几个问题,另一个用户把整个代码仓库塞进去,让模型多轮调用工具、反复修改、跑测试、再继续修。这两个人可能都付一样的钱,但后者消耗的成本完全不是一个量级。

这也是 AI 订阅制最别扭的地方。

它把一个成本高度不确定的服务,包装成了一个固定月费产品。

用户看不到 Token,也看不到一次失败调用背后的真实成本。模型幻觉、跑偏、反复重试,在订阅制下只是「再问一次」。但如果按 Token 计费,每一次失败都会变成明确的支出。

这时用户对产品的容忍度会明显下降。

Token 计费会改变使用方式

作者认为,大多数 AI 产品最终都会走向某种 Token 计费,至少企业用户会先被推到这个方向。

这不只是价格变化,而是使用方式变化。

当用户习惯了「随便用」之后,再突然告诉他每一次长上下文、每一次 Agent 多轮执行、每一次工具调用都要计费,体验上一定会有落差。

尤其是代码类产品。

代码仓库很大,工具调用很多,模型还经常需要读文件、改文件、跑测试、再根据错误继续推理。这个过程看起来像一个智能助手在工作,实际上也是一个持续消耗 Token 的机器。

如果每一次试错都变成账单,用户自然会开始问另一个问题:

它到底帮我省了多少钱?

企业更难算账

个人用户觉得贵,最多取消订阅。

企业的问题更复杂。

如果一个团队把 Claude Code、Copilot、Cursor 或其他代码 Agent 接入日常开发,就不能只看每人每月订阅费,而要看每个开发者每天实际消耗多少推理成本。

原文提到,Anthropic 自己的 Claude Code 文档中,企业部署的平均成本大约是每位开发者每个活跃日 13 美元,每月 150 到 250 美元;90% 的用户每天低于 30 美元。

换算一下,如果按每月 21 个工作日计算,一个开发者每月可能是 273 美元。若按每天 30 美元,则是每月 630 美元,一年 7560 美元。

这还只是单人。

如果是 10 人开发团队,一年就是几万到几十万美元的额外成本。问题在于,很多公司并没有办法证明这些支出对应了等量的收入增长、成本下降或交付效率提升。

「工程师写代码更快了」当然是一个说法。

但快了多少?省下来的时间有没有变成收入?有没有减少人力?有没有提高质量?

这些问题没有被回答之前,AI 成本就很难真正进入财务模型。

数据中心的账

文章后半部分把问题从订阅费推到基础设施。

AI 数据中心很贵,而且不是一般的贵。

作者给出的估算是,一个 100MW 的 AI 数据中心可以理解为约 44 亿美元级别的项目,其中大量成本都在 NVIDIA GPU 和相关硬件上。

更麻烦的是,这类资产有折旧周期,也有技术迭代风险。GPU 并不是修一座楼就能用几十年的东西。等你用 6 年折旧摊完,新一代 GPU 可能早就改变了市场价格和性能结构。

作者用一个理论上的 100MW 数据中心做计算:

  • 100% 出租且客户按时付款时,看起来还有利润
  • 如果上线延迟一个月,毛利会被明显压低
  • 如果建设和 GPU 采购用了债务融资,利息和本金会迅速吞掉利润
  • 一旦利用率不是 100%,或者租户不能按时付款,模型就会变得很脆弱

换句话说,这不是一个容错率很高的生意。

它要求数据中心按时建成、GPU 按时安装、客户按时入驻、租户长期付钱、市场需求持续增长、硬件不过快贬值。

中间任何一个环节出问题,账都会很难看。

Stargate 和 Oracle

原文花了很大篇幅讨论 Stargate Abilene。

这是 Oracle 为 OpenAI 建设的大型数据中心项目。作者估算,Abilene 是一个 1.2GW 级别、8 栋建筑的数据中心园区,总成本可能达到 528 亿美元。

但截至 2026 年 4 月 27 日,作者认为真正投入运营并产生收入的只有两栋楼,第三栋的 IT 设备也还不完整。

这会带来一个很直接的问题:

OpenAI 只能为已经存在的算力付钱。

如果数据中心没有按计划交付,Oracle 的收入就不会按计划出现。而 Oracle 又需要通过这些项目产生的未来现金流,去支撑巨额建设成本和债务。

更大的问题是,Oracle 的计划很依赖 OpenAI 未来能持续高速增长。

作者引用的估算是,OpenAI 为了支付未来几年的算力合同,需要在 4 年内获得或产生约 8520 亿美元的收入、融资或债务。这个数字非常夸张,因为它要求 OpenAI 在 2030 年前把业务规模扩大到接近今天微软这种级别。

这不是普通的增长预期。

这是把整个未来都压在一条曲线上。

算力卖给谁

文章还有一个很关键的问题:

如果所有人都在建 AI 数据中心,那么这些算力最终卖给谁?

作者提到,到 2028 年底,已经在建设中的 AI 数据中心容量约为 15.2GW。按他的估算,这部分需要约 1568 亿美元的年化 AI 算力收入来支撑。

如果把所有宣布中的 114GW 都算进去,则需要约 1.18 万亿美元的年化收入。

这个问题很朴素。

市场上真的有这么多愿意长期付费的客户吗?

现在很多 AI 算力需求来自 OpenAI、Anthropic 这类仍然高度亏损的公司,或者来自想把资本开支移出自己资产负债表的大型云厂商。如果最终客户自身没有盈利能力,那么整个算力链条就需要持续依赖融资、债务和资本市场的信心。

这有点像一层套一层的承诺。

用户相信 AI 产品会提高效率,企业相信 AI 可以带来增长,云厂商相信模型公司会持续买算力,债权人和投资者相信这些数据中心未来会有稳定现金流。

但每一层都还没有被充分证明。

总结

这篇文章的价值不在于证明 AI 没用。

它真正想指出的是,生成式 AI 的很多判断都建立在一个被隐藏的前提上:使用者没有直接感受到真实成本。

当用户每月只付固定订阅费时,AI 看起来很便宜。
当企业把 AI 账单放进研发成本时,效率提升看起来还可以先不精确计算。
当资本市场相信 OpenAI 和 Anthropic 会持续增长时,数据中心建设看起来也可以继续融资。

但如果订阅补贴结束,Token 成本显性化,用户和企业都开始按任务计算投入产出,这个故事就会变得不一样。

我觉得这也是最近 AI 行业里最值得关注的一条线。

模型能力当然还会进步,工具也会继续变好。但技术有没有用,和商业模式能不能成立,是两个问题。

前者回答的是「它能做什么」。

后者回答的是「谁来付钱」。

现在真正还没算清楚的,恰恰是后一个问题。