人工智能神经网络算法模型复杂度-小牛行研(hangyan.co)-AI驱动的行业研究数据服务

人工智能神经网络算法模型复杂度

研究报告节选:

芯片类型:从 GPU 起步,正逐步扩展至 FPGA、ASIC 等领域。目前 AI 芯片主要用于语音识别、自然语言处理、图像处理等大量使用 AI 算法的领域,通过芯片加速提高算法效率。AI 芯片的主要任务是矩阵或向量的乘法、加法,然后配合一些除法、指数等算法。AI 算法在图像识别等领域,常用的是 CNN 卷积网络,一个成熟的 AI 算法,就是大量的卷积、残差网络、全连接等类型的计算,本质是乘法和加法。2014 年以来,GPU 在卷积神经网络方面的良好表现,以及大量的图像识别&计算机视觉模型的部署,让其成为了 AI 推理芯片的主要解决方案。随着人工智能模型的复杂度加剧,FPGA、ASIC 等灵活性较高、单位功耗较低的芯片种类也加入到了竞争之中。
最后更新: 2022-06-23

相关行业研究图表


欧美企业T部署模型调研
欧美企业T部署模型调研-小牛行研(hangyan.co)-AI驱动的行业研究数据服务
中国A|+安防软硬件产品市场规模
中国A|+安防软硬件产品市场规模-小牛行研(hangyan.co)-AI驱动的行业研究数据服务
L1-L5级别自动驾驶算力要求(Tops)
L1-L5级别自动驾驶算力要求(Tops)-小牛行研(hangyan.co)-AI驱动的行业研究数据服务
2021上半年中国A1服务器市场结构
2021上半年中国A1服务器市场结构-小牛行研(hangyan.co)-AI驱动的行业研究数据服务
卷积算法突破了传统图像处理的准确度瓶颈,首次实现工业化可用
卷积算法突破了传统图像处理的准确度瓶颈,首次实现工业化可用-小牛行研(hangyan.co)-AI驱动的行业研究数据服务
国内云计算市场规模
国内云计算市场规模-小牛行研(hangyan.co)-AI驱动的行业研究数据服务

图表内容


2:人工智能神经网络算法模型复杂度
递归卷积神经网络视觉模式/图像识别
LeNet-5(1998)
6万个参数,8个卷积层
AlexNet(2012)
6000万个参数(2012),7个卷积层
Inception(GoogLe Net:2014)
400-500万(w1):2300万(v3)-(2014)
22个卷积层
VGG-16(2014)
1.38亿参数(2014),16个卷积层
ResNet-50(2015)
2500万个参数(2015),50个卷积层
自然语言模型/会话式AI平台
Open Al GPT-1(2018)
1.5亿个参数
Google BERT-Large(2018)
3.4亿个参数
Microsoft MT-DNN(2019)
3.3亿个参数
Open Al GPT-2(2019)
15.42亿个参数(在800万个网页的数据集上训练)
Alibaba PERSEUS-BERT(2019)
1.1亿个参数(通用语言模型)
NVIDIA Project Megatron(2019)
8.3亿个参数,放大版OpenA1GPT-2(突出显示为24倍大小的BERT-Large)
Facebook RoBERTa(2019)
3.35亿个参数
FacebookXILM(2019)
6.65亿个参数(跨语言理解)
University of Washington(2019)
15亿个参数
NVIDIA Megatron-Scaled Version of OpenAl
83亿个参数
GPT-2(2019)
Microsoft T-NLG(2020)
172亿个参数
Open AI GPT-3(2020)
多达1750亿个参数
料来源:Forrester
中信证券研究部