AI大模型是一个资本密集、人才密集和数据密集的产业,如何形成“数据、模型、应用”的飞轮,是大模型企业成功的关键。海外企业中,微软&OpenAI、谷歌已经逐步形成 AI 大模型的飞轮。
上篇分享了“全球AI大模型企业是如何炼成(海外篇)?”,本文分析国内篇,国内百度、阿里、商汤、华为等积极加入,行业呈现“百模大战”的竞争格局,能否形成飞轮是最后能否胜出的关键。
本文来自“人工智能行业报告:AI2.0、AI大模型、算力、AI赋能(2023)
”,详细介绍全球(海外、国内)AI大模型算力、模型、应用等现状,本篇为国内篇。
更多内容参考400+份重磅ChatGPT专业报告(合集)
国内大模型:百度、阿里、腾讯、华为、商汤、讯飞
国内大模型训练企业中,百度具备先发优势,芯片层、框架层、模型层和应用层布局完善。阿里紧随其后,在芯片层、模型层、应用层均有布局,并宣布将旗下所有产品接入通义大模型。腾讯步调稳健,持续研发,在今年以来的大模型热潮中发声克制,并未宣布更多模型、应用进展。华为的大模型布局更偏向基础设施,在芯片层、框架层和模型层均有布局,主要赋能 B 端客户。商汤的 AI 布局涵盖推理芯片、模型层和应用层,其以 CV 起家,应用层面不仅涵盖文字生成能力,同时包括多模态能力。讯飞的 AI 布局主要涵盖模型层、应用层。
1、百度:昆仑芯+飞桨平台+文心大模型,构建广泛应用端生态
百度是当前唯一一家在芯片层、框架层、模型层和应用层都有领先产品布局的企业,四层架构相互协同优化,可以显著地降本增效。在芯片层,百度昆仑芯科技已实现两代通用 AI芯片“昆仑”的量产及应用,为大模型落地提供强大算力支持。在框架层,“飞桨”是国内首个自主研发的产业级深度学习平台,集基础模型库、端到端开发套件和工具组件于一体,有效支持文心大模型高效、稳定训练。在模型层,“文心大模型”包括基础大模型、任务大模型、行业大模型三级体系,全面满足产业应用需求。在应用层,文心已大规模应用于百度自有业务的各类产品,并通过企业级平台“文心千帆”进一步推动生态构建。
算力:两代自研通用 AI 芯片“昆仑”支持大模型落地
百度旗下的芯片公司昆仑芯科技已实现两代通用 AI 芯片产品的量产及落地应用。昆仑芯1 代 AI 芯片于 2020 年量产,是国内唯一一款经历过互联网大规模核心算法考验的云端 AI芯片,当前已被广泛部署在互联网、工业制造、智慧城市、智慧交通、科研等领域。昆仑芯 2 代 AI 芯片于 2021 年 8 月量产发布,是国内首款采用 GDDR6 显存的通用 AI 芯片,相比昆仑芯 1 代 AI 芯片性能提升 2-3 倍,且在通用性、易用性方面也有显著增强。目前,昆仑芯已在百度搜索等业务场景落地,也为大模型训练提供底层算力支撑。百度之外,昆仑芯还可为客户提供大模型定制服务,凭借强大算力为大模型落地提供全流程支持。
框架:产业级深度学习平台“飞桨”为大模型构建提供有力支撑
我国首个自主研发、功能丰富、开源开放的产业级深度学习平台飞桨(PaddlePaddle)是百度大模型背后的有力支撑。飞桨以百度多年的深度学习技术研究和业务应用为基础,集深度学习核心训练和推理框架、基础模型库、端到端开发套件和丰富的工具组件于一体,有效支持文心大模型高效、稳定训练。截至目前,飞桨已和 22 家国内外硬件厂商完成了超过 30 种芯片的适配和联合优化,国产芯片适配第一。
文心大模型:“基础+任务+行业”大模型三层体系全面满足产业应用需求
百度文心大模型体系构建了文心大模型、工具与平台两层体系。在模型层,文心大模型包括基础大模型、任务大模型、行业大模型三级体系。基础大模型针对特定任务预训练构建任务大模型,任务大模型结合垂直领域数据和知识进一步形成行业大模型,行业大模型则在应用场景的数据反哺基础大模型优化。在工具与平台层,大模型开发套件、文心 API以及提供全流程开箱即用大模型能力的 EasyDL 和 BML 开发平台,帮助全方位降低应用门槛。
应用:大模型生态逐步构建,推动 AI 落地产业
文心大模型是目前国内预训练大模型应用端生态最好的大模型之一。在百度自有业务中,文心已大规模应用于百度内部的各类产品,包含百度搜索、度小满金融、小度智能屏、百度地图等。例如,度小满的智能征信中台将文心 ERNIE 大模型应用在征信报告的解读上,能够将报告解读出 40 万维的风险变量。在百度业务之外,文心大模型联合国网、浦发、中国航天、人民网等企业推出了 11 个行业大模型,让大模型加速推动行业的智能化转型升级。
2、阿里巴巴:云上赋智,拥抱消费互联网 AI 新时代
2022 年 9 月,阿里巴巴发布通义大模型,该模型由统一底座层、通用模型层、行业模型层组成,是国内首个统一 AI 底座模型,而统一AI 模型可以充分利用多种感知模态的数据,从而获得更加丰富和准确的信息,有效解决了传统大模型通用性和易用性欠缺的问题。
1)统一底座层:通义统一底座中的 M6-OFA 模型,在不引入新增结构的情况下,可同时处理图像描述、视觉定位、文生图、视觉蕴含、文档摘要等 10 余项单模态和跨模态任务。
2)通用模型层:覆盖自然语言处理、多模态、计算机视觉。包括 NLP 模型通义AliceMind,多模态模型通义-M6,CV 模型通义-CV 三大模型。2023 年 4 月 7 日,阿里巴巴推出大规模语言模型通义千问,进一步丰富阿里巴巴在通用模型层的产品形态。
3)行业模型层:深入电商、医疗、法律、金融、娱乐等行业,通用与专业领域大小模型协同,让通义大模型系列可兼顾性能最优化与低成本落地。
3、腾讯:大模型赋能长尾商家内容自制,提升整体创意和投放效率
腾讯以太极平台为底层,借力混元 AI 和广告两大模型,推出 4 大广告系统,覆盖广告内容理解、智能制作审核、广告推荐模型等环节,其他方案包括视频自动生成,模型定制化和动态投放等。根据腾讯广告公众号,在 DCO 系统加持下,广告曝光改善 5%,流水和GMV 分别提升 10%和 9%。我们认为,未来腾讯或推出更多 AIGC 应用,视频号、朋友圈、小程序等都将受益于效率改善,或迎来更多提价空间。
腾讯混元AI大模型:四大技术平台。以混元大模型为底座,腾讯细分研发出四大技术平台,分别为“巨阙”系统主攻广告内容理解、“乾坤”聚焦广告智能创作、“神针”侧重广告智能审核、“天印”主打广告指纹系统。
混元AI大模型能够自动将广告文案生成视频。目前混元AI大模型已能够实现广告智能制作,即通过AIGC自动将广告文案生成视频,大大地提高了系统的理解能力、行业特征的洞察力以及文案创意的生成效率,从而有效降低了广告视频制作的成本。
3、华为:昇腾芯片+MindSpore+盘古大模型,应用场景落地可期
算力:以自研 AI 芯片昇腾作为根基,打造 AI 产业平台
华为昇腾芯片包括用于训练的算力最强 AI 芯片昇腾 910,以及用于推理的全栈全场景 AI芯片昇腾 310。2019 年 8 月推出的昇腾 910 算力超英伟达 Tesla V100 一倍,在同等功耗下拥有的算力资源达到了当时业内最佳水平的两倍。目前,“昇腾 AI”基础软硬件平台已成功孵化和适配了 30 多个主流大模型,为我国一半以上的原生大模型提供算力支撑。基于该平台,昇腾 AI 产业已与 20 多家硬件伙伴和 1100 多家软件伙伴建立了合作关系,并共同推出了 2000 多个行业 AI 解决方案,参与其中的开发者数量突破 150 万。
框架:深度学习框架 MindSpore 提升模型开发效率
深度学习框架 MindSpore 从训练推理部署全流程支撑模型高效开发,是国内社区中最活跃、关注度最高、被应用最多的框架之一。匹配昇腾 AI 处理器,MindSpore 有效克服 AI计算的复杂性和算力的多样性挑战,打造面向端、边、云的全场景 AI 基础设施方案,让芯片的强大算力能够以最高效的方式被开发者们利用。面向大模型开发场景,MindSpore 提供系列工具及套件,发挥软硬件综合优势,从训练推理部署全流程支撑模型高效开发。同时,MindSpore 可兼容第三方 AI 框架生态,以实现模型的快速迁移。
盘古大模型:赋能千行百业的三阶段体系
华为云盘古大模型于 2021 年 4 月正式发布,到 2022 年聚焦行业应用落地,已经基于一站式 AI 开发平台 ModelArts,发展出包括基础大模型(L0)、行业大模型(L1)、行业细分场景模型(L2)三大阶段的成熟体系,让 AI 开发由作坊式转变为工业化开发的新模式,赋能千行百业。具体来说,盘古大模型的三层体系架构包含:1)L0 基础大模型:30 亿参数的 CV 大模型在业界首次实现模型按需抽取,千亿参数和 40TB 训练数据的 NLP 大模型在在 CLUE 榜单实现业界领先,科学计算大模型致力于解决各种科学问题、促进基础科学的发展;2)L1 行业大模型:涵盖矿山、气象、药物、分子、电力、海浪、金融等行业;3)L2 场景模型:包含金融 OCR、电力巡检、建筑能耗优化等场景。
应用:行业大模型逐步落地,场景应用可期
盘古CV大模型可以赋能分类、识别、检测等视觉场景。华为已基于 CV 大模型推出矿山大模型、电力大模型等行业大模型,推动相关工业领域安全高效作业。在华为与能源集团合作推出的盘古矿山大模型中,模型能够解决 AI 在煤矿行业落地难、门槛高等问题。例如,在煤矿主运场景中,AI 主运智能监测系统的异物识别准确率达 98%,实现全时段巡检,避免因漏检造成的安全事故;在作业场景中,掘进作业序列智能监测的动作规范识别准确率超过 95%,保障井下作业安全。
4、商汤:SenseCore 大装置+日日新大模型
算力:基于 AI 大装置 SenseCore,以 AI 模型赋能四大业务
商汤基于 AI 大装置 SenseCore 辅助自身业务开展。AI 大装置 SenseCore 打通了算力、算法和平台之间的连接与协同,构建成一整套端到端的架构体系;基于 AI 大装置SenseCore,商汤通过 22,000+商用 AI 模型,赋能智慧商业、智慧城市、智慧生活和智慧汽车四大业务。
日日新大模型:构建面向 AGI 的核心能力,驱动垂直行业降本增效
商汤是国内最早布局 AI 大模型的企业之一,已实现 CV、NLP、多模态等大模型的全面布局。2019 年已经发布了拥有 10 亿参数的图像大模型,2022 发布的视觉模型参数量达到320 亿,是全球最大的通用视觉模型之一,能够实现高性能的目标检测、图像分割和多物体识别算法等功能。今年 3 月推出多模态大模型“书生 2.5”,具备图像描述、视觉问答、视觉推理、文字识别、文生图、文本检索视觉内容等功能,在国内处于领先地位。
应用:MaaS 模式可能成为重要新趋势
商汤日日新大模型开放 API 体系包含自然语言生成 API、图片生成 API、视觉通用感知任务 API 和标注 API。此外,商汤还提供了数据标注、模型训练及微调等一系列 MaaS 服务。近期,我们注意到,英伟达,百度,商汤等企业都提出了类似 MaaS 的新商业模式,其核心是利用自己已经拥有的通用大模型,帮助企业以专有数据创建专有模型。
篇幅所限,更多厂商技术分析请参考“人工智能行业报告:AI2.0、AI大模型、算力、AI赋能(2023)”。
下载链接:
1、海光信息:国产巨无霸,引领“中国芯” 
2、国产CPU厂商领军者,进入快速增长期 
3、国产CPU领军,加速突破高端市场 
4、国产CPU领军,受益于行业信创加速,成长空间广阔 
5、国产高端处理器龙头,CPU+DCU齐赋能 
6、国产微处理器产业的领军者"
1、达梦与海光:聚焦信创新股中的软硬龙头 
2、计算机行业深度报告:曙光很近,海光不远,国产x86算力生态崛起 
3、进击的国产CPU和GPU领航者 
4、信创硬件龙头 
5、行业信创龙头,国产 CPU 之光 
6、专注服务器与数据中心,高端处理器企业乘风国产替代
1、电信运营商液冷技术白皮书(2023) 
2、浸没式液冷数据中心运维白皮书 
3、运营商力推液冷,中兴液冷技术领先(2023)
1、浸没式液冷数据中心热回收白皮书(2023) 2、数据中心绿色设计白皮书(2023)
1、集装箱冷板式液冷数据中心技术规范 
2、浸没式液冷发展迅速,“巨芯冷却液”实现国产突破 
3、两相浸没式液冷—系统制造的理想实践 
4、AIGC加速芯片级液冷散热市场爆发
1、中国液冷数据中心发展白皮书 
2、全浸没式液冷数据中心解决方案 
3、浸没液冷数据中心规范 
4、喷淋式直接液冷数据中心设计规范 
5、单相浸没式直接液冷数据中心设计规范
1、某液冷服务器性能测试台的液冷系统设计
2、浸没液冷服务器可靠性白皮书 
3、天蝎5.0浸没式液冷整机柜技术规范
本号资料全部上传至知识星球,更多内容请登录智能计算芯知识(知识星球)星球下载全部资料。

免责申明:本号聚焦相关技术分享,内容观点不代表本号立场,可追溯内容均注明来源,发布文章若存在版权等问题,请留言联系删除,谢谢。
温馨提示:
请搜索“AI_Architect”或“扫码”关注公众号实时掌握深度技术分享,点击“阅读原文”获取更多原创技术干货。
继续阅读
阅读原文