北美CSP加速自研ASIC布局,谷歌&亚马逊进展领先。根据Marvell,
2023年定制加速计算芯片市场规模为66亿美元,占加速芯片的16%,
预计到2028年定制加速计算芯片市场规模将达429亿美元,占加速芯片
预计到2028年定制加速计算芯片市场规模将达429亿美元,占加速芯片
的25%,2023-2028年CAGR为45%。1)谷歌:行业领先者,已推出
TPUv6Trillium芯片,预计2025年将大规模替代现有TPUv5;2)亚马
逊:亚马逊目前以与Marvell协同设计的Trainiumv2芯片为主力,同时
联合Alchip开发Trainiumv3,据TrendForce预测,其2025年ASIC芯
片出货量年增速在美系CSP中表现突出;3)Meta:在部署首款自研AI加
速器MTIA后,正与博通联合开发MTIAv2,针对AI推理负载的高度定制
化需求,重点优化能效与低延迟架构以平衡性能与运营效率;4)微软:当
前AI服务器仍以英伟达GPU方案为主,但其自研Maia系列芯片针对
Azure云端生成式AI应用优化,下一代Maiav2由GUC负责后端设计与
量产,同时引入Marvell参与进阶版设计,以强化技术布局并分散开发风
险。我们看到北美CSP正加速自研ASIC布局,相关芯片有望持续放量。
博通指引2026年XPU部署超预期,定制化需求火热。博通25Q2AI半
导体收入超44亿美元,同比增长46%,连续9个季度增长。定制AI加
速器(XPUs)同比实现双位数增长,为AI半导体收入主要组成部分之一。
公司正推进3家客户及4家潜在客户的定制AI加速器部署,预计2027年
至少3家客户各部署100万AI加速器集群,且“很大比例为定制XPUs”。
客户因推理(inference)需求加大投入,预计2026年下半年XPU需求将
加速,推动2025财年AI半导体增长趋势延续至2026财年。博通表示定
制加速器需与客户协同开发,通过“硬件与软件端到端优化”提升大语言
模型(LLM)性能,形成差异化竞争力。
Marvell2026年将启动3nm芯片生产,第二位客户进展顺利。为美国
大型超大规模数据中心客户提供的主导XPU计划表现突出,已成为定制
业务的关键收入驱动力,公司正与该客户就后续迭代展开全面合作,目前
已获得3纳米晶圆及先进封装产能,预计2026年启动生产,架构团队也
在支持下一代产品定义。预计2027财年及以后为该客户定制的AIXPU
收入将持续增长。此外,与另一家美国超大规模客户合作的定制AIXPU
项目联合开发进展顺利,双方已就后续迭代架构展开对接。此外,Marvell
与NVIDIA建立合作伙伴关系,将NVLinkFusion技术纳入定制平台,并
退出全新多晶粒封装平台,定制化能力显著提升。
纬创2025年5月营收2084亿新台币,同环比高速增长,ASIC需求已
进入全面爆发阶段。根据TrendForce,CSP把重心从AI训练转往AI推
理,预估将逐步推升AI推理服务器占比至接近50%,AIServer需求带动
北美四大CSP加速自研ASIC芯片,平均1~2年就会推出升级版本。在台
股25年5月营收表现中,纬创表现最为亮眼,纬创25年5月营收2084
亿新台币,同比+162%,环比+56%。根据semianalysis,亚马逊主要找
ODM进行Trainium2的板级和机架级组装,在台湾找Accton进行L6板
组装,在墨西哥找Wiwynn进行L6-L11机架组装。亚马逊表示公司投资
以支持对AI服务的需求,并且越来越多地投资于Trainium等定制芯片,
行业走势
作者