在这一波AI热潮当中,市场的目光大多都集中在英伟达的股价以及H100的出货量上面。可是要是把目光放得更宽泛些,就会发现一场更隐秘、也更残酷的战争,正在算力底层默默地展开。
当讨论仍停留在“TPU比GPU快多少”时,问题其实已经被带偏了。谷歌死磕TPU,从来不是为了卖芯片,而是一场极其经典、甚至堪称教科书级别的“互补品商品化(CommodifyYourComplement)”战略实践。 抛开技术参数,从商业结构的角度去看,TPU的存在逻辑就会变得十分清晰。核心逻辑:谁是利润中心,谁是互补品
想要弄明白谷歌的战略布局,不要去追寻2002年乔尔·斯波尔斯基提出的那个经典理论:互补品商品化。如果某种商品的互补品越便宜,这种商品本身就越值钱,护城河也越深。Windows是高利润产品,PC硬件是它的互补品。因此,微软不仅不介意硬件厂商内卷,反而乐见戴尔、惠普、康柏彼此压价。硬件越便宜,PC普及率越高,Windows的销量和定价权就越稳固。利润被系统层吸走,硬件层则被压成微利的大宗商品。到了AI时代,这套逻辑差不多被原封不动地照着复制过来了。对于谷歌来讲,真正的利润中心一直都不是芯片,而是搜索广告、YouTube推荐系统,还有以后的Gemini订阅服务。那些业务全都是那种特别容易形成规模、边际成本特别低的业务。只要英伟达紧紧把控着算力,只要GPU还维持着接近80%的毛利率,这样每一回AI搜索、每一回模型推理,都会一直从成本结构上给英伟达送钱。算力价格越高,谷歌的商业模式就越轻易受影响。TPUvsGPU:一次结构性的成本重构
光靠采购谈判,没办法改变算力定价权。要是真的想要把成本降下来,不要在物理层面重新构建计算方式。GPU最开始是用来做图形渲染的,后来不断被改造,去适应科学计算、自动驾驶、加密计算等好几种场景。为了保持高度通用性,它保留了好多复杂的控制逻辑、缓存体系还有调度机制。这种“啥都能干”的设计,让GPU成了算力领域的瑞士军刀——灵活、厉害,不过挺贵的。在AI场景中,用户实际上为大量用不到的功能支付了“硅片溢价”。TPU从设计之初就只服务于一件事:大规模矩阵运算。谷歌在架构方面非常克制,几乎把所有和AI没有关系的通用功能都给砍掉,接下来采用以脉动阵列(SystolicArray)为核心的流水线式结构。数据在芯片里面按照节奏流动,矩阵计算被高度并行化,内存访问被压缩到最少。在一样的计算能力下,TPU的晶体管利用率和能效比明显比GPU高。对谷歌来说,这就意味着在自己的数据中心里,能用更低的硬件成本和电力成本,得到同样甚至更高的智能密度。这是一种没法通过市场谈判得到的、来自物理结构的不对称优势。TPU 的真正价值:防御只是起点
一旦理解了互补品商品化的逻辑,谷歌近几年的一系列动作就不再显得零散。随着生成式搜索不断发展,传统搜索那种大概“零成本”的查询方式,正渐渐被高频运用、高算力消耗的模型推理给替代。要是搜索业务全部依托GPU,它的毛利率就会面对系统性压力。自研TPU的意思就是把这部分成本弄成内部的。谷歌只需要付代工和研发成本,不用承担英伟达的品牌溢价和垄断利润。这就让搜索业务在AI化之后,还能有可控的成本曲线。在云计算市场里,TPU其实就起到了“价格锚”的作用。当英伟达芯片是AWS与Azure主要的算力提供依靠时,谷歌云为注重成本效益的客户开拓出一条更具竞争力的替代路径。TPU并非是要完全取代GPU,不过只要它持续存在且投入应用,就暗地里为整个算力市场定下了一个价格天花板。只要有一个“足够好且更便宜”的选项存在,英伟达就无法无限行使定价权。英伟达真正的护城河并非硬件,而是CUDA软件生态。谷歌没去正面硬刚,而是转去用更高维度的抽象化来应对。靠着JAX、TensorFlow/XLA这类工具,引导开发者把心思放在模型表达本身,不用去纠结底层硬件细节。只要软件栈能让TPU和GPU无缝转换,硬件迁移带来的时间和成本压力就会大大降低。当算力不再和某一个架构紧紧绑在一起的时候,GPU就没有生态溢价了,只能回到制程和成本的竞争上。一场典型的“阳谋”
在模型表现这一块,谷歌或许并非每次都能登上头条;不过在战略层面上,它的眼光向来是比较长远的。TPU不是为了让谷歌变成一家芯片公司,而是为了保证在AI成本不断上涨的时代,算力不会反过来卡住核心业务的脖子。当算力像水、电、煤一样廉价且充沛时,真正具备长期价值的,才是建立在其上的数据、产品与服务。这正是谷歌的阳谋。通过让互补品(算力)一直贬值,来让自己核心资产的价值最大化。
本文内容为原创,创作过程中部分环节采用了AI辅助,所有内容均经本人严格审核。文中图片素材均来自真实图库或由AI生成原创。本文旨在传播积极理念,杜绝不良引导,特此说明。
评论