OpenAI 与博通达成自研 AI 芯片合作,计划部署 10 GW 定制加速器

IP归属:广东

文章AI导读

一键萃取文章精髓,核心观点即刻呈现

OpenAI 宣布与博通(Broadcom)达成多年度基础设施合作,将基于 OpenAI 自研架构由博通负责开发与制造,联合部署总计 10 GW 的定制 AI 加速器与系统。双方表示,首批机柜预计在 2026 年下半年上线,项目将持续至 2029 年。受消息提振,博通股价当日涨幅接近 10%。该合作被视为 OpenAI 在算力与供应链层面对 Nvidia 依赖度进行结构性分散的又一举措。

图源:博通

OpenAI 称自研芯片可将训练前沿模型与产品的“经验”直接固化进硬件,从而解锁新的能力与效率;公司还透露使用自身模型加速芯片设计,实现“大幅面积缩减”与更优的性能/功耗比。此次系统栈不仅涵盖计算,还覆盖网络与内存,并基于博通的 Ethernet 方案与 PCIe 互联。博通近期发布的面向 AI 的 TH6-Davisson 交换机号称可达 102.4 Tbps 吞吐,并采用内置可维护光学器件以降低网络总体成本,显示其在大规模 AI 数据中心网络侧的布局与能力。

从行业成本与规模化角度看,外界普遍引用 1 GW AI 数据中心成本约 500–600 亿美元的估算,其中芯片占比最高,采用与博通的定制硅方案可在每 GW 维度带来 30–40% 的成本下降潜力,核心在于针对推理与延迟、性能/瓦优化所做的系统级定制,以及对不必要模块的剔除与资源重分配。这一模式在 Google TPU 的实践中已被证明具有规模效应与成本优势,成为 OpenAI 拓展“自有算力形态”的参考路径。

陀螺科技现已开放专栏入驻,详情请见入驻指南: https://www.tuoluo.cn/article/detail-27547.html

前方智能专栏: https://www.tuoluo.cn/columns/author1911845/

本文网址: https://www.tuoluo.cn/article/detail-10125877.html

免责声明:
1、本文版权归原作者所有,仅代表作者本人观点,不代表陀螺科技观点或立场。
2、如发现文章、图片等侵权行为,侵权责任将由作者本人承担。

相关文章