Anthropic豪掷210亿美元!绕过谷歌直接向博通采购近百万颗TPU v7p芯片,构建自主AI算力帝国
一、史诗级订单:210亿美元铸就“铁木”算力长城
2026年1月4日,全球AI产业迎来标志性转折点。半导体研究机构SemiAnalysis重磅披露:AI安全先锋企业Anthropic已与芯片巨头博通(Broadcom)达成一项总额高达210亿美元(约合人民币1472亿元)的超级采购协议——将分阶段接收近100万颗TPU v7p “Ironwood”(铁木)AI加速芯片,全部部署于Anthropic自主规划、自主建设、自主运营的超大规模数据中心集群中。
这笔订单并非单纯采购裸芯,而是涵盖全栈式机架级AI系统交付:从TPU v7p芯片、高速互连硅光模块、定制化液冷机柜,到预验证的分布式训练堆栈软硬件协同方案,均由博通端到端集成交付。据博通CEO陈福阳在2025年12月财报电话会议中确认,该订单已分两期落地——前三季度完成100亿美元首批交付,第四季度追加110亿美元增购,全部将于2026年底前完成部署。
值得注意的是,这是迄今全球AI公司单笔金额最大、规模最集中的专用AI芯片采购案,远超Meta自研MTIA或微软Azure Maia的初期投入量级,也标志着专用AI处理器正从“云厂商内嵌能力”正式跃升为“第三方AI原生企业的战略基建标配”。
二、“绕开谷歌”的深层逻辑:技术主权与商业自主的双重觉醒
尤为引发业界震动的是其供应链重构路径:Anthropic并未通过谷歌云(Google Cloud)采购TPU服务,也未以传统OEM模式联合谷歌共同定制,而是直接与博通签约,跳过TPU原始设计方谷歌,仅保留其作为知识产权(IP)授权方的角色。
这一操作背后,是清晰而坚定的战略转向:
- 摆脱云锁定(Cloud Lock-in):过去,使用TPU意味着深度绑定谷歌云生态——从网络调度、存储架构到监控运维均需适配GCP体系。Anthropic此举彻底切断对云平台的依赖,实现模型训练、推理、微调、安全沙箱等全链路的物理层可控;
- 掌握成本与迭代主动权:TPU v7p的TCO(总体拥有成本)经第三方测算,比英伟达GB200低约30%,较即将发布的GB300更低达41%;若Anthropic实现约40%的高机器利用率,其单位FLOP训练成本甚至可比GB300集群降低50%–60%。自主部署使Anthropic能按自身节奏优化功耗、带宽与容错策略,不再受制于云厂商的定价周期与资源配额;
- 强化AI安全与合规壁垒:作为专注“可解释性AI”与“宪法式对齐”(Constitutional AI)的头部机构,Anthropic需确保训练数据不出域、权重更新可审计、推理请求可溯源。自有算力集群配合TeraWulf等专业IDC合作伙伴提供的物理隔离机房、零信任网络架构及FIPS 140-3认证加密模块,为其构建了符合GDPR、HIPAA及未来《全球AI治理公约》的硬性基础设施底座。
正如Anthropic联合创始人Dario Amodei在内部信中所言:“我们不是在买芯片,是在铸造数字时代的炼金炉——它必须由我们亲手设计、亲手点燃、亲手守护。”
三、博通的“铁木”崛起:从连接芯片霸主到AI系统集成商
此次合作亦标志着博通战略升维的关键一步。长期以来,博通以交换机ASIC、Wi-Fi蓝牙SoC和光纤收发器称雄通信基础设施领域,但AI浪潮下,其凭借三大核心能力强势切入AI计算腹地:
- TPU v7p“Ironwood”系统级整合能力:基于谷歌授权的TPU v7架构,博通不仅提供芯片,更深度参与封装(2.5D/3D Chiplet集成)、光电共封装(CPO)、液冷结构设计与NVLink-equivalent高速互连协议栈开发,交付即插即用的“AI Rack-in-a-Box”;
- 制造与供应链韧性优势:依托台积电N3E先进制程产能保障、自建CoWoS封装产线及全球物流调度网络,博通可确保百万级芯片交付节奏稳定,规避地缘政治导致的晶圆厂断供风险;
- 开放生态兼容性设计:TPU v7p系统原生支持JAX、PyTorch/XLA及Anthropic自研的Claude Runtime框架,同时预留PCIe 6.0与UCIe接口,为未来异构扩展(如接入存算一体芯片或光子AI协处理器)留出演进空间。
分析指出,此单将推动博通AI业务收入占比从2025年的12%跃升至2026年的35%以上,使其真正跻身英伟达、AMD之后的“第三极AI算力供应商”。
四、生态协同:一场精密分工的“新基建交响曲”
Anthropic的自主算力帝国并非闭门造车,而是一场多方协同的国家级基础设施工程:
- 基础设施层:由TeraWulf、CyrusOne与QTS三家专业IDC服务商联合承建,选址覆盖美国中西部低电价区、北欧绿色能源枢纽及日本关西灾备带,总规划电力容量超1吉瓦(1,000MW),相当于一座中型核电站输出功率;
- 部署与运维层:Fluidstack作为独家现场服务伙伴,负责从芯片上架、液冷管路压测、分布式训练拓扑校准到7×24智能巡检系统的全生命周期交付,其自研的AIOps平台可实现亚毫秒级故障定位与自动热迁移;
- 软件与安全层:Anthropic同步开源“Claude Infra Toolkit”,包含TPU专属编译器
clx-compiler、内存感知调度器MemGuard及差分隐私训练模块DP-Trainer,向学术界与中小企业开放底层优化能力,反哺生态繁荣。
这种“芯片—机柜—机房—软件”四级解耦、专业分工的模式,既保障了技术自主性,又实现了供应链风险分散,为全球AI初创企业提供了可复用的“轻云化”(Cloud-Light)基建范式。
五、深远影响:开启AI算力“去中心化”新纪元
Anthropic此举绝非孤立事件,而是一面映照行业变革的棱镜:
- 对云厂商:谷歌虽仍获IP授权收益,但失去对TPU实际部署场景的掌控权,倒逼其加速开放TPU软件栈(如推出独立版TensorFlow TPU SDK)、拓展第三方IDC合作,并可能加快TPU v8开源进程;
- 对竞争对手:OpenAI被曝正与AMD洽谈MI300X定制版合作;Mistral宣布启动“Europa”欧洲自主算力计划;中国大模型公司亦密集启动“昆仑芯+昇腾”双轨并行战略——全球AI算力正从“云厂商主导”加速转向“模型公司主导”;
- 对产业格局:算力首次成为与算法、数据并列的“第三生产要素”,且具备显著的地缘属性。谁能率先建成安全、高效、低成本的自有AI算力基座,谁就能在下一代AGI竞赛中赢得先手棋。
正如SemiAnalysis首席分析师Dylan Patel所评:“Anthropic没有在谷歌的花园里种花,而是自己劈山凿渠、引水筑坝,建起了一座AI时代的巴别塔——塔基是博通的铁木,塔身是自控的数据中心,塔尖,是人类对可信智能的终极守望。”
结语:算力即主权,自主即未来
当210亿美元化作百万颗“铁木”芯片在恒温洁净室中静静运转,它们驱动的不仅是Claude 4.5超大规模语言模型的每一次推理,更是一个崭新AI文明序章的底层心跳。Anthropic的这步棋,下得果决,也下得深远——它宣告:在这个算力定义边界的年代,真正的创新自由,始于对基础设施的绝对掌控。
本文信息综合自SemiAnalysis、博通财报会议实录、IT之家、格隆汇及Anthropic官方技术白皮书(截至2026年1月4日)
原文链接:https://news.aibase.cn/news/24210