AI芯天下丨产业丨ASIC,赶超GPU?

IP归属:广东

当OpenAI悄悄测试谷歌TPU的消息在AI圈传开时,整个行业都嗅到了不一样的味道。

如今,谷歌、亚马逊AWS、Meta等云服务巨头集体押注自研ASIC,野村证券甚至预测2026年ASIC出货量将首次超越英伟达GPU。

这场没有硝烟的战争,究竟是通用算力的黄昏,还是专用芯片的黎明?

作者| 方文三

图片来源|网 络

从[价值垄断]到[数量追赶]的微妙失衡

当前的AI服务器市场,英伟达仍牢牢占据着[价值王座]。

数据显示,其AI GPU在市场价值中的占比超过80%,而ASIC仅为8%-11%。

但如果将目光转向出货量这一关键指标,天平已在悄然倾斜。

2025年,谷歌自研的TPU芯片出货量预计达150万-200万台,亚马逊AWS的Trainium 2 ASIC约为140万-150万台,两者合计规模已接近同期英伟达AI GPU的40%-60%。

更具颠覆性的是,随着Meta计划2026年量产100万-150万颗MTIA芯片,以及微软2027年启动大规模ASIC部署。

野村证券判断:ASIC整体出货量有望在2026年某个时间点超越英伟达GPU。

这一变化的背后,是云服务商对[降本增效]的迫切需求。

以日均处理海量数据的谷歌为例,其最新一代TPU针对Transformer架构深度优化,计算效率较上一代提升30%以上;

亚马逊AWS的Trainium 2则聚焦分布式训练场景,支持千亿参数模型的并行计算。

在特定场景下,这些ASIC的表现已逼近甚至部分超越英伟达A100 GPU。

对云服务商而言,自研ASIC的意义远不止[替代]。

谷歌每天处理数十亿次搜索请求,AWS承载着全球数百万企业的云计算需求,Meta的社交平台每秒产生海量交互数据,这些场景的AI任务相对固定,恰好匹配ASIC[定制化]的核心优势。

据测算,同等算力下ASIC的功耗可控制在GPU的30%以内,对需要部署数万张卡的云服务商来说,每年节省的电费相当于一个小型电厂的年发电量。

ASIC的定制化改写算力经济规则

如果把芯片世界比作一个工具箱,那么ASIC就是为特定任务量身打造的[专业工匠],而GPU则是能应对多种场景的[全能选手]。

这种定位差异,在AI大模型规模化商用的今天被无限放大。

ASIC的核心优势,在于对特定算法的[极致适配]。以大模型推理为例,一旦模型部署,其算法逻辑(如Transformer的注意力机制)、计算流程(输入输出格式、精度需求)会长期固定。

ASIC可以直接将这些逻辑[固化]到硬件架构中,去掉GPU中用于通用计算的冗余模块,让硬件资源100%服务于目标任务。

谷歌TPU v5e的能效比是英伟达H100的3倍,AWS Trainium 2在推理任务中的性价比比H100高30%-40%,正是这种优化的直接体现。

对比更为直观的是运维成本。一块NVIDIA GPU功耗约700瓦,运行大模型时每小时电费约0.56元(按0.8元/度计);而同等算力的ASIC芯片功耗可控制在200瓦内,同样任务每小时电费仅0.16元。

对ChatGPT这样需要数十万台推理芯片支撑的应用来说,这种差距意味着每年数亿元的成本节省。

ASIC的崛起还踩中了AI产业的[阶段红利]。当前大模型已从[野蛮生长]的训练阶段,逐步转向[规模化落地]的推理阶段。

巴克莱预测,到2026年推理计算需求将占通用人工智能总计算需求的70%以上,是训练需求的4.5倍。

推理场景的[算法固化]特性,与ASIC的[专用性]形成完美契合,这也是谷歌、Meta等巨头加速布局的核心逻辑。

从历史维度看,这种[通用到专用]的迭代并不陌生。

比特币挖矿早期用CPU,后来转向GPU,但真正实现产业化的是比特大陆的ASIC矿机,其单位能耗的挖矿效率是GPU的千倍级别。

当AI模型架构从快速迭代走向相对稳定,ASIC正在重复类似的[效率革命]。

ASIC的规模化现实困境与隐忧

尽管ASIC的优势显著,但规模化部署并非坦途。这场算力竞赛的背后,隐藏着产能、技术与风险的多重挑战。

产能瓶颈首当其冲。以Meta计划2026年量产的MTIA芯片为例,其依赖台积电CoWoS技术,而当前CoWoS晶圆产能仅能支持30万-40万片,远低于其100万-150万颗的出货目标。

更严峻的是,谷歌、AWS、微软等厂商若同步扩产,高端封装产能将成为制约ASIC放量的[卡脖子]环节。

台积电虽然计划2025年将CoWoS产能提升50%,但从产能建设到实际投产需12-18个月,短期内难以缓解供需矛盾。

技术门槛同样高企。大尺寸CoWoS封装对芯片设计、材料一致性要求极高,系统调试周期长达6-9个月。

即便是技术成熟的谷歌,也需投入大量资源解决散热、信号干扰等问题。

Meta的MTIA T-V1芯片采用36层高规格PCB与液冷+空冷混合散热,其复杂程度堪比航天级设备,任何设计瑕疵都可能导致量产延期。

更隐蔽的风险在于ASIC的[专用性陷阱]。AI模型架构并非一成不变,若未来从Transformer转向新型架构,前期投入的ASIC可能面临[瞬间过时]的风险。

黄仁勋曾直言:[一个完美的ASIC在某些工作上表现出色,但在其他方面却很糟糕。一旦AI的工作内容改变,它就会变得毫无用处。]

这也是为何谷歌Gemini模型仍同时部署在英伟达GPU上——通过[通用+专用]的混合架构对冲技术迭代风险。

供应链的[蝴蝶效应]也不容忽视。若Meta、AWS等云服务商集中拉货,高端ABF载板、HBM3E存储芯片、液冷组件等关键物料极易短缺,进一步推高成本并拖慢量产节奏。

2024年下半年,HBM内存价格因需求激增上涨30%,这一情景可能在ASIC扩产潮中重演。

英伟达的技术、生态与反击战

面对ASIC的挑战,英伟达并未坐以待毙,而是通过技术迭代与生态强化构筑[三重壁垒]。

在2025年COMPUTEX大会上,英伟达推出NVLink Fusion技术,开放互连协议允许第三方CPU或xPU与自家GPU无缝协作。

这一策略看似[妥协],实则通过开放接口扩大生态覆盖,同时保持自身在计算核心上的主导权。

硬件参数上,英伟达H100的计算密度较同期ASIC高出约20%,NVLink互连带宽是自研ASIC的1.5倍以上,在训练千亿参数大模型等复杂任务中仍不可替代。

生态壁垒更是英伟达的[王牌]。全球超90%的企业AI解决方案基于CUDA开发,从模型训练到部署,开发者已形成深度路径依赖。

即便ASIC算力接近GPU,企业也需投入数亿甚至数十亿元重构软件生态,这种[转换成本]构成了最坚固的护城河。

正如摩根士丹利分析:[CUDA生态就像一座高速公路网,所有的车都在上面跑,想换路就要重建整个路网。]

供应链控制力同样关键。英伟达是HBM内存的最大买家,占据SK海力士70%以上的产能;通过与台积电的深度合作,其获得了最多的CoWoS封装产能分配。

这种[抢资源]的能力,让英伟达在算力竞赛中掌握了节奏主导权。

当ASIC厂商还在为产能焦虑时,英伟达已通过规模化采购降低边际成本,维持高毛利率优势。

黄仁勋的[生态战]策略也在奏效。通过开放NVLink Fusion,英伟达将联发科、Marvell等厂商纳入[朋友圈],形成[GPU+第三方xPU]的异构计算生态。

这种[以我为主、开放合作]的模式,既应对了ASIC的挑战,又巩固了自身在产业链中的核心地位。

通用与专用的共存大概率是未来格局

ASIC的崛起并非意味着GPU的衰落,而是AI算力市场从[一极主导]走向[多元共生]的开始。

这场变革的最终结局,更可能是[通用GPU+定制ASIC]的双轨并行格局。

短期来看,ASIC是[增量补充]而非[存量替代]。

英伟达在高端训练市场(如千亿参数模型)仍占据绝对主导,其技术积累与生态优势短期内难以撼动。

ASIC则在特定场景快速渗透,成为云服务商降本增效的重要选择。

2025-2026年将是双线并行的过渡期,市场呈现[GPU主导价值、ASIC增长数量]的特征。

长期而言,市场将呈现[分层竞争]态势。

英伟达继续领跑通用AI算力市场,支撑前沿模型探索与复杂任务处理;

ASIC则在垂直场景占据优势,通过定制化优化实现效率最大化。

对主权AI体系,ASIC可能成为突破供应限制的重要路径,但需突破技术积累、人才储备与生态构建的多重障碍。

从应用维度看,两者的分工将更加清晰:GPU负责[从0到1]的创新探索,ASIC负责[从1到N]的规模落地。

就像超级计算机用于前沿科研,而专用服务器支撑日常数据处理,AI算力市场也将形成[创新与效率]的平衡。

行业数据也印证了这一趋势。摩根士丹利预计,AI ASIC市场规模将从2024年的120亿美元增长至2027年的300亿美元,复合增长率达34%,但同期GPU市场仍将保持20%以上的增速。

这意味着,ASIC的崛起是在做大AI算力市场的[蛋糕],而非单纯抢夺GPU的份额。

算力革命的本质是效率与创新的平衡

ASIC与GPU的博弈,本质上是AI产业从[通用算力]向[专用效率]进化的缩影。

当大模型训练成本从GPT-3时代的千万级飙升至Grok3的数十亿美元级,效率成为不可忽视的核心命题,这为ASIC的崛起提供了土壤。

但技术创新的不确定性,又让通用GPU的灵活性不可或缺。

未来的AI算力江湖,不会是[非此即彼]的零和博弈,而是[各擅其长]的共生生态。

英伟达凭借技术、生态与供应链优势,继续主导通用算力市场;

谷歌、AWS、Meta等巨头通过ASIC在垂直场景构建壁垒;

而博通、Marvell等厂商则在定制芯片领域分一杯羹。

这场变革的深层意义,在于重新定义算力经济的成本结构与技术路线。

部分资料参考:算力之光:《ASIC芯片狂飙,英伟达慌吗?》,证券之星:《ASIC的时代即将到来?》,硬AI:《谷歌之后Meta需求爆发,ASIC明年就超英伟达GPU?》,电子发烧友网:《OpenAI甩出"王炸":一个APP干翻整个办公室,ASIC开始逆袭GPU?》,中国电子报:《2026年出货量超GPU?ASIC时代加速到来》,电子工程世界:《DeepSeek时代,ASIC芯片加冕为王》,半导体产业纵横:《GPU王座动摇?ASIC改写规则》

陀螺科技现已开放专栏入驻,详情请见入驻指南: https://www.tuoluo.cn/article/detail-27547.html

AI芯天下专栏: https://www.tuoluo.cn/columns/author1911711/

本文网址: https://www.tuoluo.cn/article/detail-10124850.html

免责声明:
1、本文版权归原作者所有,仅代表作者本人观点,不代表陀螺科技观点或立场。
2、如发现文章、图片等侵权行为,侵权责任将由作者本人承担。

相关文章