【行业研究报告】电子设备-电子:如何看待算力芯片与服务器的弹性?

类型: 行业专题

机构: 信达证券

发表时间: 2023-03-31 00:00:00

更新时间: 2023-03-31 20:11:00

➢Transformer模型是参数量可以无限增长的通用模型,可以处理长序
列的输入、输出。Transformer模型是一种基于自注意力机制的深度
学习模型,相较于传统AI模型如循环神经网络(RNN)和卷积神经
网络(CNN),它在处理序列数据时具有更高的并行性和可扩展性。
其中,自注意力机制使得模型能够捕捉序列中长距离依赖关系,同时
避免了RNN中的梯度消失或爆炸问题。Transformer模型的参数量之
所以会随着数据量和任务复杂度无限增长,是因为它可以通过堆叠更
多的层或增加隐藏层宽度来提高模型性能,从而适应更复杂的数据和
任务;在传统CNN/RNN模型中,增加网络参数量会提高模型的拟合
能力,但过多的参数容易导致过拟合现象。因此,长期来看大模型领
域或许会出现没有上限的“军备竞赛”。
➢训练:根据英伟达测算,在4096颗A100GPU互联的情况下,训练
10000亿参数的模型约需要3-4周时间,而在4096颗H100GPU互
联的情况下,时间约需要1周左右。考虑到1周是研发阶段可承受的
周期,因此我们认为4000颗左右H100将是一个大型云计算企业每
年支持30-50个5000亿参数模型项目训练所需要的芯片数量。考虑
到目前大模型参数量已经步入万亿级别,芯片需求量可能会继续上
到目前大模型参数量已经步入万亿级别,芯片需求量可能会继续上
升。若以英伟达HGXH100-8计算集群为单位(1024NvidiaH100
GPUs),总共需要4-8个计算集群,考虑到售价为4900万美金/集
群,则单个支持GPT训练的云计算中心至少投入1.96-3.92亿美金用
于服务器的购买。
➢推理:相比训练,模型的部署是更大的市场。我们认为应用对于服务
器的最大承载能力要求在于过峰,即满足PCU时刻的访问需求。根
据Statista,Steam2021年月活用户约为1.32亿人左右,而Steam
公布服务器最高访问人数截至2021年12月31日为2738万人,最高
817万人同时在线进行游戏。因此我们合理推断一款被高强度访问的
应用,最高在线人数约为月活用户的6.19%-20.74%。假设在国内8
亿用户体量下,最高并发访问人数可高达4952万人-16592万人。根
据10DGXH100服务器一秒内可支持300用户的并发访问,若响应
时长延缓至5秒及以上,最高可支持1000人以上的并发访问。据此
测算,国内由AI带动的服务器需求量约为5万台-16.6万台,芯片为
50-166万颗。假设全球活跃用户体量为国内用户体量的3倍,则全球
服务器需求量为15-50万台,芯片需求量为150-500万颗。
➢投资建议:ChatGPT的快速渗透侧面反映出大模型在通用任务上所
展现的强大能力,也为人工智能产业未来的投资指引了方向。在
AIGC驱动新一轮产业革命的趋势下,我们认为AI算力产业链上下游
均有投资机会。
➢建议关注:海光信息、寒武纪-U、龙芯中科、澜起科技、工业富联、
紫光国微、中芯国际、华虹半导体、华大九天、概伦电子、芯原股
份、兴森科技、通富微电、华正新材、方邦股份、长电科技、海康威
视、大华股份、晶晨股份、瑞芯微、全志科技。
➢风险提示:技术迭代不及预期;制裁风险;本文对服务器、芯片需求
量等测算是基于一定前提假设,存在假设条件不成立、市场发展不及
预期等因素导致测算结果偏差。