在生成式 AI 竞争进入白热化之际,硅谷新创巨头 Anthropic 近期与 Google(GOOGL-US) 达成了一项史无前例的合作协议。据报导,Anthropic 已承诺在未来 5 年内向 Google Cloud 支付约 2,000 亿美元,用于采购高达 5GW 规模的 Tensor Processing Unit (TPU) 算力及相关云端服务。
这项交易不仅是 AI 产业史上最大的单一基础设施订单之一,更象徵著 AI 算力重心正从通用的 GPU 转向客制化的 ASIC 芯片。
5 座核电站级别的算力需求
这项合约的规模极其惊人。所谓的 5GW(吉瓦) 算力容量,大约相当于 5 座大型核电站满负荷运转的耗电量。为了支撑这一需求,Google 预计将建设数座超大规模数据中心,并填满由其自研、博通 (AVGO-US) 协作设计的 TPU 芯片。
对 Google 而言,这笔交易具有重大财务意义,单一合约即占其最新披露之云端业务订单积压额 (Backlog) 的 40% 以上。
性价比与效率的豪赌
Anthropic 此举背后的核心战略是为了摆脱对英伟达 (NVDA-US)GPU 及 CUDA 生态系统的绝对依赖。长期以来,英伟达垄断了 AI 芯片市场,导致模型厂商利润大部分流向硬体商,且受限于其供应配额。
转向 TPU 路线为 Anthropic 带来了显著的成本优势。数据显示,在大型 Transformer 模型训练中,TPU v6e 的性价比约为同代英伟达 GPU 的 3 到 4 倍。此外,客制化芯片路线已使 Anthropic 的推理基础设施毛利率从 38% 提升至 70% 以上。透过与 Google 深度绑定,Anthropic 试图以硬体的确定性换取模型迭代的速度与成本护城河。
多元算力架构
尽管与 Google 签下天价合约,Anthropic 并未将鸡蛋放在同一个篮子裡。该公司目前采取 “TPU 训练主力 + Amazon Trainium 备份训练 + GPU 推理补位” 的混合架构。例如,在签署 Google 合约的同一天,Anthropic 也租下了 SpaceX Colossus 1 超级计算机中超过 22 万颗英伟达 GPU 用于推理任务。
然而,部分业内人士指出,长期绑定 TPU 意味著未来的模型开发必须高度适配 Google 的硬体节奏,一旦合约到期,迁移至其他架构的技术与运维成本将高得令人难以承受。


文章评论