2022年底ChatGPT正式发布,该事件类似于30年前Mosaic浏览器问世,当时是1993年,我们看到在接下来不到十年的时间里,互联网给所有企业带来了一场重大革命。
同样地,生成式AI也将为所有企业带来另一场重大革命。如今,各大企业都特别重视提高生产力以及克服技术限制,然而CEO们应将重点转移至商业模式创新上。
这并不是一件容易的事。CEO们可能会感觉身处十字路口,毕竟他们对生成式AI的技术本身没那么了解。不过从我们的角度来看,CEO的首要任务并不是彻底投入技术,而是要去了解生成式AI的关键特征。
生成式AI会如何影响企业和其所在的行业?哪些战略选择有助于CEO抓住机遇和应对挑战?他们必须在三个关键支柱上做出选择:潜力、人员和政策。
潜力:发现战略优势
2022年第四季度以来,ChatGPT热潮席卷全球,人们对生成式AI的兴趣激增。生成式AI给各行各业都带来了变革性的影响。
左右滑动查看更多
预计到2027年,生成式AI的潜在市场总额将达到约1,200亿美元。
为了把握如此巨大的机遇,企业需要立刻采取行动。依赖现有大语言模型(LLM)应用有助于帮助企业提高效率,比如Jasper。它是一款网络版AI写作工具,在OpenAI的GPT-3基础上构建模型,可以帮助团队生成定制内容,写作、文案编辑、广告和内容创作等都不在话下,速度可比人工写作快上10倍。
但是,上述用例各企业均可应用,不能创造差异化竞争优势,因此我们称其为“非核心用例”。与之相对,核心或“黄金”用例则能够帮助企业塑造核心业务差异化竞争定位,或在市场上建立长期且独特的差异化竞争优势。
案例
对于一家设备制造商来说,高质量的维护是其商业模式的核心部分。于是,该设备制造商利用生成式AI技术赋能物联网传感器,持续通过传感器监测关键性能指标,并将信息回传给后端由生成式AI驱动的软件平台,能够实现更精准地故障预测。
原理是,由于故障数据很少,传统机器学习技术很难识别传感器数据中的异常;而生成式AI的优势在于可以生成综合数据,实现在故障发生前更准确地故障预测。
案例
ProFluent是一家使用深度生成模型来学习生物学语言,以设计新的功能性蛋白质的新锐公司。对于 ProFluent来说,蛋白质合成是其业务核心。生成式AI因为具有“生成”能力,因此可以通过训练数据集、自学后创建没见过的蛋白质结构,帮助公司建立超过竞争对手的研发能力。
综上,对CEO们来说,关键是找到能提高公司竞争优势的核心或“黄金”用例。再进一步,一旦选定用例后,CEO就应该做出战略选择:是微调现有的大语言模型还是训练定制模型。
点击下图查看完整版 基础模型选择决策树
训练定制大语言模型无疑将提供更大的定制开发灵活性和塑造公司差异化竞争优势的潜力,但投入成本也将数十倍提升,且对公司的研发能力提出更高要求。
此外,对于CEO而言,还需要充分考虑技术和人才的情况,认真评估生成式AI投资的时机;行动太快有浪费资金的风险,行动太慢有落后的风险。
人员:整装待发
为实现人与AI强强联合的未来,CEO在人员储备上需要考虑四方面的问题并妥善应对。
首先,应该以解决关键的组织问题为目的,制定生成式AI应用计划。成功的生成式AI采用计划应该为组织量身定制,主要看所处行业、目前的AI准备情况以及选择的黄金用例。
左右滑动查看更多
其次,CEO应该清楚地认识到,相较于传统AI,生成式AI会给员工带来哪些新的改变。传统AI和机器学习算法主要是增强决策能力,级别较低的员工可在没有管理者协助的情况下,根据数据做出决策。管理者的角色会因此改变,从决策者转变为团队合作和动态关系的维护者。而生成式AI增强的是内容创作能力,员工创建初稿所需的时间变少,更多时间将用于修改或监督AI生成的内容。个人贡献者的工作内容会因此发生改变,纳入生成式AI审核或监督的职责。从当前创建内容和执行,到未来成为AI审核者和战略思考者,个人的职业身份因生成式AI而改变。
因此,CEO接下来需要针对新的能力需求制定人才计划。从了解预期、吸引人才、引导人才融入组织,到组织内培养发展,形成全面的人才计划。
第四,新的能力和人才计划也需要配套新的运营模式。CEO可以考虑集中管理IT/研发部门,为全公司提供大语言模型和数据工程师支持,而不是职能部门各自为政。设立中央IT/研发部门的好处是:
  • 各职能部门可以为模型训练收集并提供数据;
  • 数据科学家能深耕各职能部门,建立职能专长;
  • 数据工程师可以针对特定用例对大语言模型进行微调。
我们预计,从长期来看,敏捷(或平台)模式仍将是最有效也最可能规模化的运营模式。
负责任AI:保护业务
随着生成式AI应用的普及,现实世界中与生成式AI相关的风险正迅速显现,比如影子AI、专有数据泄露、侵犯版权、偏见内容输出等等。因此,如何负责任地使用AI(RAI)变得至关重要。CEO可以采取以下措施:
  • 制定负责任的研究/发布规范:与学术界一样,成立机构审查委员会,先评估各项生成式AI用例的影响。
  • 制定并明确传达生成式AI使用政策:为了管理知识产权和“幻觉” 风险,为生成式AI 的可用和不可用场景制定明确的指导方针。
  • 训练模型之前清理敏感数据:为最大限度降低数据泄露造成的损失,在培训基础模型之前清理敏感数据(如姓名和地址)。
  • 提高生成式AI风险评估能力:考虑成立专门的团队,查找生成式AI 应用的故障模型和漏洞。
生成式AI的创新步伐非常迅速,而且会不断获得新能力(出现相应的新风险),因此领导者也要与时俱进,持续更新各项规章制度。
关于中国区专家
阮芳是波士顿咨询公司(BCG)董事总经理,全球资深合伙人,BCG组织与人才专项中国区负责人,BCG亨德森智库中国区联席负责人。
何大勇
是波士顿咨询公司(BCG)董事总经理,全球资深合伙人,BCG亨德森智库中国区联席负责人。

魏杰鸿(Jeff Walters)是波士顿咨询公司(BCG)董事总经理,全球资深合伙人,BCG X中国区负责人。
如需联络,请致信[email protected]
推荐阅读
关于BCG亨德森智库
BCG亨德森智库是波士顿咨询公司的战略智库,致力于采用远见卓识来探索和开发新颖的商业、技术和科学领域的宝贵洞察。亨德森智库邀请商业领袖进行思维碰撞式的讨论和实验,以拓宽商业理论和实践,并从业务内外汲取转化创新理念。
声明
原创内容的最终解释权以及版权归波士顿咨询公司所有。如需转载文章,请在信息栏输入“转载”,获取转载须知。
继续阅读
阅读原文