联想联手英伟达发布“AI云超级工厂”:Rubin平台与海神液冷助力万亿级大模型
2026年1月6日,美国内华达州拉斯维加斯——在万众瞩目的2026联想创新科技大会(Lenovo Tech World)现场,联想集团董事长兼CEO杨元庆与英伟达创始人兼CEO黄仁勋并肩登台,共同宣布一项具有划时代意义的战略合作:“联想人工智能云超级工厂”(Lenovo AI Cloud Superfactory)正式诞生。这不是一次常规的硬件采购或联合营销,而是一场从底层架构、散热工程、制造能力到服务生态的全栈式重构,标志着人工智能正加速跨越实验室验证阶段,迈入可规模复制、可按需交付、可持续演进的工业化新纪元。
一、不止于算力堆叠:一座“可量产AI”的智能工厂
传统意义上的“AI数据中心”强调的是资源集中与弹性调度;而“AI云超级工厂”则重新定义了AI基础设施的本质——它是一座面向AI全生命周期的标准化生产线。
该超级工厂以三大核心支柱为骨架:
- 英伟达Vera Rubin平台:作为下一代AI训练与推理系统的代号,“Rubin”并非单纯芯片升级,而是涵盖全新GPU架构、NVLink 6.0互连协议、第三代Transformer引擎(TTE-3)、以及专为万亿参数模型优化的稀疏化编译器与内存压缩技术。其单节点FP16算力达2.4 exaFLOPS(每秒240亿亿次浮点运算),支持动态张量切片与跨节点零拷贝通信,使“首个Token生成时间”(Time to First Token, TTFT)平均缩短80%——这意味着用户在调用一个万亿参数智能体时,首字响应延迟从秒级降至毫秒级,真正实现“所问即所得”。
- 联想海神(Neptune)液冷技术深度集成:面对Rubin平台单机柜功耗突破120kW的极限挑战,风冷已成历史。联想独有的第四代海神液冷系统采用“冷板+浸没双模冗余设计”,冷却液直接接触GPU、HBM及CPU热源,PUE(电能使用效率)低至1.04,较行业平均水平降低37%。更关键的是,该系统搭载AI温控中枢,可依据实时负载动态调节流速与温度,实现“算力即制冷”,让十万GPU集群在全年99.999%可用率下持续满频运行。
- 端到端AI产线操作系统(AIOS):由联想与英伟达联合开发的软件栈,覆盖模型预训练调度、推理服务编排、安全沙箱隔离、多租户QoS保障及绿色算力计量。它将原本需数周的手动部署流程压缩至90秒自动交付,并支持从千卡小规模POC到十万卡超大规模生产的无缝扩展——正如杨元庆所言:“我们不是卖服务器,而是交付一条‘开箱即用’的AI流水线。”
二、破解AI工业化“三重门”:从性能、规模到可持续性
当前,全球云服务商在推进大模型落地时普遍面临三大结构性瓶颈,而“AI云超级工厂”正是为系统性破局而生:
| 瓶颈维度 | 传统方案局限 | 超级工厂解决方案 |
|---|---|---|
| 响应性能之门 | 大模型推理首Token延迟高,交互体验割裂 | Rubin平台+AIOS联合优化TTFT,支持亚100ms端到端响应,满足实时对话、智能代理等强交互场景 |
| 规模扩展之门 | GPU集群扩展至万卡级后,网络拥塞、调度失衡、故障率陡增 | 全栈NVLink 6.0光互连+联想自研分布式RDMA Fabric,实现十万GPU逻辑单机管理;故障自愈时间<3秒 |
| 绿色可持续之门 | 高功耗带来碳足迹激增,多地政策已限制新建高密度IDC | 海神液冷+余热回收模块(可为园区供暖),年节电超2.1亿度,等效减碳15万吨CO₂e |
尤为值得注意的是,该工厂并非仅服务于“训练”单一环节。它首创“训推一体化弹性池”架构:白天优先分配资源进行模型微调与强化学习,夜间自动切换为高并发推理服务集群,资源利用率提升至92.7%(第三方基准测试数据),彻底告别“GPU闲置即浪费”的行业顽疾。
三、万亿参数智能体的现实基座:从“能跑”到“好用”“敢用”
当参数规模迈入万亿门槛,模型不再仅是语言理解工具,而进化为具备长期记忆、多步规划、跨模态协同与自主工具调用能力的通用智能体(General Agent)。然而,这类系统对基础设施提出前所未有的严苛要求:
- 内存墙突破:万亿模型完整加载需超4TB高速显存,Rubin平台通过HBM3e(带宽达2.8TB/s)与CXL 3.0内存池化技术,实现跨节点显存虚拟化,单任务可视作“一块超大显存”;
- 容错性跃升:10万GPU集群中任意单点故障不应中断Agent服务。AIOS内置“韧性推理引擎”,支持模型分片热迁移与状态快照秒级恢复;
- 安全可信闭环:集成NVIDIA Morpheus网络安全AI框架与联想“磐石”可信执行环境(TEE),确保敏感数据不出域、模型权重防篡改、推理过程全程可审计。
目前已有多家全球头部云厂商确认首批接入该超级工厂——包括微软Azure AI、Oracle Cloud Infrastructure及东南亚最大云服务商GCP SEA。首批商用案例涵盖:
✅ 某跨国银行部署万亿参数金融风控Agent,实现毫秒级反欺诈决策;
✅ 欧洲制药巨头构建AI驱动的新药发现平台,将靶点筛选周期从18个月压缩至3周;
✅ 日本制造业龙头上线工业数字孪生体,支持百万级IoT设备实时语义解析与预测性维护。
四、三十年伙伴,新十年引擎:战略协同的深层逻辑
黄仁勋在现场动情表示:“过去三十年,联想制造了全球超过60%的Top500超算系统。但今天,他们不只是制造商——他们是唯一能把芯片、冷却、结构、软件、服务与全球化交付全部自主掌控的企业。”这一评价直指合作本质:英伟达提供最前沿的‘大脑’,联想则构建最可靠的‘躯干’与‘循环系统’。
这种协同远超技术叠加。联想在全球拥有22座智能制造基地、14个AI解决方案中心及覆盖80国的服务网络;英伟达则贡献CUDA生态、AI Enterprise软件套件及全球开发者社区。二者融合催生出一种新型产业范式——“AI基建即服务”(AI Infrastructure-as-a-Service, AI-IaaS):客户无需自建IDC,只需按需订购算力单元(如“1000 GPU·天”),即可获得从模型适配、性能调优到合规认证的一站式交付。
杨元庆强调:“这不仅是两家公司的合作,更是中国高端制造能力与美国尖端计算创新的历史性握手。未来三年,我们将在中国合肥、美国达拉斯、德国法兰克福建设三座区域级超级工厂,形成全球AI算力骨干网。”
结语:当“超级工厂”成为AI时代的标准配置
回望计算机发展史,ENIAC的诞生开启了电子计算时代,IBM System/360定义了通用主机标准,AWS EC2则掀起了云计算革命。“联想人工智能云超级工厂”的横空出世,正在书写AI工业化进程中的下一个关键章节。
它宣告:
🔹 万亿参数不再是新闻标题里的数字,而是可规模化部署的产品规格;
🔹 AI智能体不再是Demo视频中的炫技,而是嵌入企业核心流程的生产力引擎;
🔹 绿色算力不再是成本负担,而是驱动数字化转型的新型基础设施红利。
正如Tech World会场巨幕上滚动的标语所昭示的那样——
“The AI Factory is Open.”
(AI工厂,已开启。)
本文综合自2026联想创新科技大会官方发布、英伟达Rubin平台白皮书、联想海神液冷技术路线图及第三方权威机构基准测试报告。截至2026年1月7日14:00,首批超级工厂产线已进入带电联调阶段,预计2026年Q2正式对外商用。
延伸阅读:https://news.aibase.cn/news/24334