服务器随着场景需求经历通用服务器-云服务器-边缘服务器-AI服务器四种模式,AI服务器采用GPU增强其并行计算能力;AI服务器按应用场景可分为训练和推理,训练对芯片算力的要求更高,根据IDC,随着大模型的应用,2025年推理算力需求占比有望提升至60.8%;
AI服务器按芯片类型可分为CPU+GPU、CPU+FPGA、CPU+ASIC等组合形式,CPU+GPU是目前国内的主要选择(占比91.9%);AI服务器的成本主要来自CPU、GPU等芯片,占比25%-70%不等,对于训练型服务器其80%以上的成本来源于CPU和GPU。
据ARK Invest预测,Chat GPT-4参数量最高达15000亿个,由于参数量与算力需求间存在正比关系,所以可推算GPT-4算力需求最高达到31271 PFlop/s-day。随着国内外厂商加速布局千亿级参数量的大模型,训练需求有望进一步增长,叠加大模型落地应用带动推理需求高速增长,共同驱动算力革命并助推AI服务器市场及出货量高速增长。
美国对中国禁售英伟达高性能芯片A100和H100,英伟达特供中国的削弱互联带宽的版本A800或为当前可替代方案;
以海光信息、壁仞科技等为代表的国产GPU部分单卡指标接近英伟达,在推理场景中具有一定竞争力;国产AI服务器厂商全球份额超35%,浪潮信息位列榜首;国产AI服务器厂商各具优势,有望受到下游需求拉动。
下载链接:
多模态AI研究框架(2023)
287份重磅ChatGPT专业报告
1、大模型算力需求驱动AI服务器行业高景气(2023) 2、多模态大模型技术演进及研究框架 3、大模型遇到金融:海内外金融领域大模型对比 4、大模型如何影响网安行业的未来 5、大模型应用百花齐放,AI发展进入新时代 6、详解大模型训练与推理对算力产业链的需求影响 7、训练大模型发展前景及思考和探讨—华为诺亚方舟实验室 8、人工智能通用大模型(ChatGPT)的进展、风险与应对 9、ChatGPT引发的大模型时代变革 10、中国大模型发展白皮书(2023年) 11、中国大模型发展白皮书—元能力引擎筑基智能底座(2023年) 12、“源1.0”大模型技术白皮书
下载链接:
1、PCI Express一致性测试方法 
2、5G IC高速接口设计与测试挑战 
3、MIPI D-PHY一致性测试方法 
4、MIPI C-PHY一致性测试方法 
5、HDMI 1.4_2.0物理层一致性测试方法
7、DDR一致性测试方法 
8、DDR技术演进与测量挑战 
9、SATA一致性测试原理与方法 
10、USB2.0/USB3.1一致性测试方法 
11、高速数字接口测量的去嵌入和均衡软件使用方法
1、PCI Express 3.0 and 4.0测试挑战 
2、PCI Express一致性测试方法
1、USB 2.0一致性测试方法 
2、USB2.0/USB3.1一致性测试方法 
3、USB 3.1 Gen2 10G -Gen1 5G Receiver测试
9、芯片和芯片设计——集成电路设计科普 
10、集成电路EDA设计概述 
11、超大规模集成电路设计 
12、常用半导体器件讲解 
13、半导体制程简介 
14、SOC芯片设计 
15、ASIC芯片设计生产流程 
16、CAN总线详细讲解
1、集成电路技术简介 
2、芯片设计实现介绍 
3、集成电路芯片设计 
4、芯片规划与设计 
5、数字IC芯片设计 
6、集成电路设计的现状与未来 
7、集成电路基础知识 
8、集成电路版图设计
本号资料全部上传至知识星球,更多内容请登录智能计算芯知识(知识星球)星球下载全部资料。

免责申明:本号聚焦相关技术分享,内容观点不代表本号立场,可追溯内容均注明来源,发布文章若存在版权等问题,请留言联系删除,谢谢。
温馨提示:
请搜索“AI_Architect”或“扫码”关注公众号实时掌握深度技术分享,点击“阅读原文”获取更多原创技术干货。

继续阅读
阅读原文