做难而正确的事。
一年,12亿,同比增长200%——这是商汤生成式AI业务2023年的成绩单。
3月26日,商汤披露了2023年全年财报。年报显示,商汤全年实现营收34亿元,毛利润15亿元,毛利率44%。
其中,生成式AI业务收入达12亿元,同比增长200%。该业务是商汤成立十年以来,以最快速度从无到有、超过10亿收入体量的新业务。生成式AI也被商汤明确为三大核心业务板块之一(生成式AI、传统AI和智能汽车)。
“生成式AI对商汤来说不仅是技术领域的变革性创新,更成为公司的核心业务。商汤生成式AI业务的增长,得益于各行各业对大模型的训练和推理的广泛需求,这预示着中国硬科技投资的新周期正式开启。”商汤科技董事长兼CEO徐立在年报中表示。
对于商汤这种体量的企业而言,要全力掉转车头押注一项新业务并非易事,除了要接受来自客户的考验,更要面临广大投资人的审视。尽管如此,商汤的生成式AI业务依然在一年内实现了3位数增长。
1.步步为营,踩准趋势节拍
2023年,各家大模型厂商使出浑身解数,全力在“百模大战”中保持领先。
商汤也不例外。
2023年4月10日,商汤发布基础大模型“日日新SenseNova”。同时,商汤一口气推出3款生成式AI产品,分别是对标ChatGPT的大语言模型“商量SenseChat”,对标Midjourney的AI文生图创作平台“秒画SenseMirage”以及AI数字人视频生成平台“如影SenseAvatar”。
如今回看,商汤的大模型产品布局颇有预见性。
发布会现场,商汤科技董事长兼CEO徐立将“日日新”比作大模型超市。“我们的大模型超市里,更多不同能力的大模型会源源不断地产生,更多的生产可能性会持续涌现。”
“大模型超市”背后,实则是一种以用户需求为导向的产品思维。无论个人还是企业,核心需求都是用大模型解决问题。用户的核心关注点是模型“好不好用”,而非参数够不够大。
现阶段,单一模型能力还不够强大,还没有出现“万金油”模型,用户往往会选择不同功能特性的模型,针对性解决相应的问题。而单一模态的“文生文”模型很难充分满足用户需求,很多场景都要求模型有多模态能力,这也决定了多模态是大势所趋。但在一年前,大多数人的注意力都聚焦在单一模态的文本模型上,多模态还在聚光灯外。
不过,多模态虽然更贴近现实需求,但从技术角度来看,多模态模型的训练无疑难度更高,会消耗更大的存储和计算,不同模态数据之间的关联和对齐也是一个很复杂的问题。
从这一点出发,商汤做多模态是有一定优势的。多年来,商汤在感知智能领域的积累让其能够规模化地给视频数据打标签;“秒画”的技术架构也与OpenAI发布的Sora高度重合,这足以体现商汤在技术上的前瞻性。
以往的技术积累也促使商汤能更快地面向用户推出一系列产品,同时不断迭代模型。今年2月,商汤推出“日日新4.0”,已经能与GPT-4相媲美。此次年报还透露,“日日新5.0”预计在今年4月发布,性能将全面达到GPT-4 Turbo,多模态能力全面对标GPT-4V。
在国外大幅领先的情况下,商汤还能紧咬国际先进水平,迅速迭代自身技术与产品,离不开商汤过去十年在感知智能时代的积累。
首先是丰富的人才储备。
商汤搭建了一个豪华的人才队伍,目前有40多位教授和250多名博士,以及800多位技术研发人员。同时,商汤还与香港中文大学、浙江大学、上海交通大学等顶尖大学建立了联合实验室。自2014年成立以来,商汤科技在AI领域拥有8000多项专利申请,并在全球计算机视觉顶级会议上发表了600多篇论文。
如果说人才是软实力,那么算力就是企业入局大模型市场必需的门票。
大模型时代,高性能算力成为稀缺资源,英伟达H100/A100一度一卡难求,算力国产替代的需求越来越迫切。更重要的是,算力国产替代不仅在于单卡GPU层面,更在于千卡甚至万卡互联的前提下,如何让整个算力集群高效计算,且保持稳定。
早年间,商汤在算力方面已经提前做了很多布局。
2018年起,商汤每年便以数十亿元投入SenseCore大装置。2020年夏季,商汤开始建设临港AIDC;2022年1月24日,商汤科技人工智能计算中心(简称“商汤AIDC”)正式启动运营——从开工建设到主体结构封顶,仅用时168天。
这种光烧钱,但短期内难见到收益的布局,起初也让商汤受到不少质疑。毕竟,ChatGPT发布前,AI还是“小模型”的天下,商汤的大装置显得有些“不合时宜”。
但今天,商汤多年的投入终于有了结果。2023年年报显示,商汤的研发开支由2022年的40亿元下降13.7%至2023年的34.7亿元。核心原因就是商汤将GPU使用从第三方转移到自己的AIDC,服务器运营及云服务费用减少。
长远来看,在大模型时代,SenseCore商汤大装置将逐渐成为不可或缺的基础设施。
目前,SenseCore商汤大装置的人工智能计算中心(AIDC)已经成为亚洲最大的人工智能计算中心之一。商汤管理的算力已实现全国联网的统一调度,总运营算力达到12000petaFLOPS,上线GPU数量达到45000张。
不过,算力的国产替代,从来不只是能买多少张卡的问题,更大的难题还在于如何构建一个软件生态,让算力硬件的性能充分释放出来。
在训练侧,商汤目前最大实现了万卡级超大集群互联,保持90%的加速效率。在训练稳定性上,商汤可实现超30天稳定训练不间断,出现训练间断时的诊断恢复时长也优化到了半小时以内。
在推理侧,商汤在过去一年将推理服务的性价比提升了3倍,且增加了对华为昇腾、寒武纪等主流国产芯片的适配,以全国产的技术栈支持大模型的训练、微调和推理。
这些能力的提升,得益于商汤此前联合开发的DeepLink开放计算体系。DeepLink有300多个标准化算子接口,对于英伟达CUDA支持的AI大模型计算需求,DeepLink覆盖率能达到99.5%以上。
“大模型+大装置”已经成为商汤生成式AI业务的两大核心驱动力,二者相辅相成。
一方面,大装置提供的强大、稳定的算力是大模型高效训练和快速迭代,以及大模型大规模落地应用的基础;另一方面,大模型在各个场景的落地应用将催生更多算力需求,由此促进了大装置能力的进一步扩展和优化。
2.大模型时代,什么才是有效的商业模式?
面对商业化这道必答题,各家都在“摸着石头过河”。
过去一年,很多大厂都选择了所谓的MaaS模式,模型即服务。MaaS成立的基础是一个通用的大模型底座和充沛的算力资源,加之大厂多年形成的平台效应,都决定了MaaS注定是大厂的游戏。微软Azure、阿里云、华为云、腾讯云、百度云等云计算大厂,都率先推出MaaS服务。
作为AI 1.0时代的科技巨头,商汤也选择了MaaS模式。商汤面向行业伙伴提供涵盖自动化数据标注、自定义大模型训练、模型增量训练、模型推理部署、开发效率提升等多种服务。
有了商业模式后,从大模型技术特点出发,智能涌现能力和屡遭诟病的“幻觉”问题催生了两种截然不同的落地思路——
一种是让大模型更准确,在具体场景中生成精确表达,协助人类解决实际问题。这种情况下,拥有更多结构化、标准化、高质量数据集的场景更适合大模型落地。金融、医疗、办公等行业便成为很多大模型厂商的落地首选。
另一种是让大模型更发散,基于自然语言的交互模式,激发大模型的智能涌现,让大模型更“像人”,从而解决人类情感陪伴方面的需求。
2023年年报显示,商汤大模型在上述两个方向均收获了很多头部客户。
在金融行业,商汤通过精选模型的检索增强生成(RAG)技术,强化模型的金融知识储备,从而减轻“幻觉”。中国银行、招商银行、中国工商银行、上海银行等机构均已采用日日新大模型。
在医疗领域,商汤推出多模态大模型“商量·大医”。该模型能够提供医疗知识问答服务,具备CT、MR和病理等多种医学图像的识别能力。目前,上海交通大学医学院附属新华医院、瑞金医院以及郑州大学第一附属医院等机构均已应用“商量·大医”。
在企业Copilot助手领域,商汤已经与金山办公、海通证券、招商局集团等头部客户达成合作。在SuperClue代码评测中,商汤的模型位于首位,在上千题的数据分析测试对中精度超过GPT-4。
在拟人交互领域,商汤客户构建的to C聊天应用次日留存率已超过60%,可对标Character.AI,单客户对话轮次最长超过2000轮。
此外,商汤也十分看重智能终端的布局。“我们相信2024年是端侧大模型应用的爆发之年。”商汤在2023年年报中写道。商汤的7B模型在高通最新款芯片上实现了16 token/s的推理速度。目前,商汤已经与小米、荣耀等手机厂商合作,共同研发AI手机的创新功能。
大模型竞赛如此激烈,所有人都在抢夺客户注意力,为什么商汤能够在一年之内,让这些大客户愿意为之买单?
事实上,商汤在AI 1.0时代已经积累了大量优质客户,并积累了大量to B的落地经验。
财报显示,生成式AI业务中超过70%的客户在过去12个月内是商汤的新客户,剩下的30%的存量客户客单价也收获约50%的增速。截至最新,商汤订单金额超过千万元人民币的客户数已达到数十家。
这些客户在AI 2.0时代也面临全新一轮的业务升级,而此前与商汤多年的合作也促使其迅速转换为生成式AI客户,并进一步为商汤背书,吸引更多客户选择商汤。
3.中国式大模型自主发展路在何方?
春节后,Sora、Devin、Figure不断刷新人们的感官和认知。商汤基于“日日新Sensenova”大语言模型打造了AI Native生产力系列工具——「小浣熊家族」,推出代码小浣熊和办公小浣熊两位成员,为十余万用户提供数亿次智能辅助服务。
其中,代码小浣熊是基于商汤大语言模型的软件智能研发助手,覆盖软件需求分析、架构设计、代码编写、软件测试等环节,满足用户代码编写、编程学习等各类需求;可支持Python、Java、JavaScript、C++、Go、SQL等90+主流编程语言和VS Code、IntelliJ IDEA等主流IDE。在实际应用中,代码小浣熊可帮助开发者提升编程效率超50%。
代码小浣熊演示页面
办公小浣熊则是基于商汤大语言模型的大模型原生数据分析产品,它可以通过用户的自然语言输入,结合商汤大模型的能力,自动将数据转化为有意义的分析和可视化结果。其底层技术商汤日日新·商量语言大模型-数据分析版本,在数据分析场景下的数据测试集(1000+题目)中以85.71%的正确率超过GPT-4。
办公小浣熊演示页面
回看商汤的十年,几乎每一步都走得并不容易,但每一步都在为今天打下基础。
从搭建顶尖人才团队;到不顾外界质疑,提前押注大模型路线,并投入重金建设SenseCore商汤大装置;再到坚定to B的商业路线,深入产业,用AI赋能各行各业——商汤已经步步为营,闯出了一条中国式大模型自主发展之路。
站在当下的时间点上,商汤的成绩颇具历史意义。今天,AI已经成为第四次工业革命的主题,国家对人工智能也表现出前所未有的重视。
2024全国两会上,政府工作报告首次提出“人工智能+”行动,并将“大力推进现代化产业体系建设,加快发展新质生产力”列为重要任务。
为何要如此强调“新质生产力”?
中国企业数字化转型虽然已经推进多年,但技术落后、人才匮乏、数据孤岛等痛点仍普遍存在——大企业业务线复杂,难以确定转型切入点;一些中小企业也仍在面临不想转、不敢转、不会转的窘境。
而生成式AI的出现,给企业提供了一个新动能。据Gartner预测,到2025年,70%的企业机构将把如何可持续、道德地使用AI列为其首要关注的问题。
然而,当前的AI工具似乎更像“玩具”,而非“工具”。“目前AI能解决的问题在10%以下,生产链路上能够带来的突破可能还很有限。”徐立表示。
在此背景下,徐立给出了一套商汤对“新质生产力”的理解体系。他将AI模型的能力分为三层——
  • 1,知识层,即将世界知识灌输到大模型能力中。通俗来讲,就是“你问我答”,通过语言交互让大模型解答疑问。
  • 2,推理/演绎层,即有了世界知识之后,通过AI的推理能力,推理出更多可能性。
  • 3,执行层,即如何跟这个世界互动反馈。某种意义上,执行层就是具身智能的大脑,未来与物理世界的硬件结合将会释放出广大的能量。
未来,三层能力层层递进,且互为支撑,将成为商汤继续在大模型时代践行“苟日新,日日新,又日新”的行动原则,将AI的能力带入社会经济的神经末梢。
正如商汤科技创始人、计算机人工智能科学家汤晓鸥教授生前所言:
“并不存在AI这个行业,只有AI+行业,强调AI需要与传统产业合作,这种关系是结合与赋能,而不是颠覆,其价值在于帮助传统产业提高生产效率,解放生产力。”
>End
>>>                        
本文转载自“甲子光年”,作者:刘杨楠,原标题《大模型时代,如何闯出一条中国式自主发展之路?|甲子光年》。
为分享前沿资讯及有价值的观点,太空与网络微信公众号转载此文,并经过编辑。
未按照规范转载及引用者,我们保留追究相应责任的权利
部分图片难以找到原始出处,故文中未加以标注,如若侵犯了您的权益,请第一时间联系我们。
>>>                  
充满激情的新时代,
充满挑战的新疆域,
与踔厉奋发的引领者,
卓尔不群的企业家,
一起开拓,
一起体验,
一起感悟,
共同打造更真品质,
共同实现更高价值,
共同见证商业航天更大的跨越!
——《太空与网络》,观察,记录,传播,引领。
>>>                                           
·《卫星与网络》编辑委员会
高级顾问:王国玉、刘程、童旭东、相振华、王志义、杨烈
· 《卫星与网络》创始人:刘雨菲
·《卫星与网络》副社长:王俊峰
· 微信公众号(ID:satnetdy)团队
编辑:艳玲、哈玫,周泳、邱莉、黄榕
主笔记者:李刚、魏兴、张雪松、霍剑、乐瑜刀子、赵栋
策划部:杨艳、若㼆、李真子
视觉总监:董泞
专业摄影:冯小京、宋伟
设计部:顾锰、潘希峎、杨小明
行政部:姜河、林紫
业务部:王锦熙、瑾怡
原创文章转载授权、转载文章侵权、投稿等事宜,请加微信:15910858067
商务合作;展览展厅设计、企业VI/CI及室内设计、企业文化建设及品牌推广;企业口碑传播及整体营销传播等,请加微信:13811260603
杂志订阅,请加微信:
wangxiaoyu9960
· 卫星与网络各分部:
成都分部负责人:沈淮
长沙分部负责人:宾鸿浦
西安分部负责人:郭朝晖
青岛分部负责人:江伟
· 卫星与网络总部负责人:农燕
· 会议活动部负责人乔颢益、许克新、董今福
· 投融资及战略层面合作:刘雨菲
· 本平台签约设计公司:一画开天(北京)文化创意设计有限公司
· 航天加(深圳)股权投资基金管理负责人:杨艳
继续阅读
阅读原文