编者按:
三年前,科技早知道推出了硅谷徐老师和泓君制作的「人工智能又一里程碑式突破,GPT-3红了」的一集播客,这也是最早把OpenAI GPT大模型带入全球华人视野的科普节目。三年后ChatGPT 在全球爆火,大家都关心现有行业生态将被 AI彻底颠覆吗。
2月7日,微软 CEO 萨提亚·纳德拉在新版必应搜索引擎的发布会上预言:「AI 技术将重塑几乎所有软件。」当下,不只是软件行业,科研、媒体,乃至法律行业,都在逐渐引入 ChatGPT 来完成一部分原来必须由人力完成的工作,其中的许多工作甚至是富于创造性的。ChatGPT 似乎势不可挡,但作为一种泛化的语言模型,它在垂直行业内的精细化应用,以及不同场景下的交互可能性,却仍有待深挖。
本期节目内容来自硅谷徐老师参加的一场投资人闭门会议,会议讨论了以 ChatGPT 为代表的 AIGC 在不同细分领域内的潜在应用方向,AI 技术进化的本质逻辑,以及面对已经到来的人工智能时代,公司和个人可以如何做好准备。
                                                                                                  完整音频:
▲文字有删减和整理,欢迎在小宇宙、喜马拉雅、Apple Podcasts、Spotify等各大音频平台收听完整音频
什么工作会被取代?什么公司会受影响?
「 你的工作可能不会被 AI 取代,但会被更早拥抱 AI 的人取代 
硅谷徐老师:今天任何的 AI 技术,都更加适合比较容错的应用场景。容错是指当你的答案不是百分之百对,依然是可以的。比如市场营销方案报告,本来就没有标准答案, ChatGPT 其实能够把东西写得很不错。另外一个容错是指,如果你对这个答案自己都不能判断正误,最好不要用。
讨论机器人是否取代人,我觉得并不是主要的,主要应该讨论的问题是人与人之间。一个拥抱ChatGPT 这类技术的人,跟一个不拥抱这个技术的人之间的对比。最终取代你的工作的不是机器人,而是是拥抱机器人的人类。
孙煜征:首先我们要意识到ChatGPT是一个和过往AI模型有范式不同的模型。在2017年,朱松纯教授非常高屋建瓴地总结了AI和智能的本质(浅谈人工智能:现状、任务、构架与统一 | 正本清源),并且用乌鸦 vs 鹦鹉,提炼了智能的本质。其中他把现有的AI模型总结为鹦鹉学舌的模式,而呼吁学者们去寻找乌鸦智能的模式。ChatGPT涌现出来的inference能力,是让我们这些AI从业者,第一次看到了乌鸦智能的可能性。
当AI结合了海量知识,又有了inference的能力,我认为会被用「搬砖」形容的工作,不管是市场营销,写方案,写文件,如果你的文档换一个人来写,和你写差不多,两年之内很可能就会被 AI 取代。
ChatGPT 不是在威胁某一个公司,而是整个人类的工作。这背后有两点:第一,它表现的推理能力到底是真的,还只是它表现出来的?第二, ChatGPT 到底会用一个怎样的方式给大家使用?几年之内有没有其他公司可以做出另一个 ChatGPT ?我觉得这些答案都会影响到它会以什么样的方式去开放和被应用。假设它足够开放,它的提示工程(prompt engineering )能开放给大家使用,能读取公司特有的数据,它应该很快就能取代你们公司大部分「搬砖」类的工作。
李泽宇:需要抽象能力的行业似乎不太会被 ChatGPT 取代。以人类的思考模式,ChatGPT 有很强的归纳能力,也有类似人类的演绎能力,但是它没有抽象的能力。我们要做数学抽象,从各种元素总结出集合论,从集合论又抽象出范畴论。ChatGPT背后的神经网络原理,好像没有办法在两个看似毫无关系的东西间建立起联系。
硅谷徐老师:AI 的发展其实是一件打破竞争格局的事情。很明显的例子就是谷歌搜索,已经有 90% 的市场占有率,但微软却在跃跃欲试。对于竞争,如果你本身处于劣势,可以思考一下怎么能够靠 AI 翻身。如果是老大,则应该担心,因为基本上没有什么事情 AI 颠覆不了,包括需要创作的行业。另外大家都说低代码、无代码革命,ChatGPT 能够加速这一进程。
闵可锐:对于我们这样的自然语言技术的创业公司,其实这是一个挺好的机会。一方面,大家对于自然语言处理相关的技术有了更高的关注度。另一方面,我们也在积极地去做相关技术的研发和落地。AI 在未来的可用性可能比我们之前想象的还要更大,所以我们也会去做进一步的研发投入评估,比如我们去追赶大概需要多大成本,以及我们自己在相对比较有限的投入下能做到多少分?
▲图片来源 Unsplash
细分行业和场景交互:ChatGPT还能怎样变得更聪明?
李泽宇:作为基础模型, ChatGPT 已经有了很好的泛化能力,但是在一些细分领域里面,如果它要去结合一些更接近符号式推理的知识图谱,会有多难?
硅谷徐老师:理论上可以结合,而且已经有人在做了。但大规模的实现还有很多现实问题,比如多贵,公司是不是愿意把数据给OpenAI,是不是有更加便宜轻巧的方式比如用好「 提示 」,等等。
OpenAI 公司其实也有两个方向,一个方向就是将基础模型越做越好,另一个方向是培养一个生态圈,使得大家都能够跟它的平台系统交互。目前看上去它把精力更多放在把基础模型越做越好,没有放在平台系统上面,这其实给了其他公司很多机会,去把这一块做好。
闵可锐:这也取决于新领域的数据和旧的数据之间的差异究竟是有多大。OpenAI 做这方面的实验的时候,用不到 10 万条的标注数据让模型拥有了很好对话和判断能力。之所以能在几万条的标注量级别达到不错的效果,很重要的一个原因是,基础模型已经具备了足够的知识。对于你的问题,ChatGPT 可能已经在系统内部掌握了 3 版不同的回答方式,只是不知道在设定的场景下面,我究竟应该以一种什么样的语气,什么样的态度去回答。所以,如果知识本身已经在大模型里面已经存在了,它的适配过程就是一个万条级别的数据就能达到的效果。
另外一个情况是,我们进入到一个新的行业的时候,知识本身可能对于基础模型可能是一个完全陌生的领域,这个时候,可能数据标注量不是几万条就能达到好的效果。ChatGPT有一定的知识和能力的迁移的能力,但不能高估到当模型大了以后,就能完美解决一个它从来没有见过的陌生问题。
▲图片来源 Unsplash
李泽宇:如果 ChatGPT 能让机器人更像人,或许我们和虚拟助手交往会是一个非常有乐趣的事情,他可以帮助你学知识,甚至完成情感上的交互。从场景和交互来看,ChatGPT 加上 MR(混合现实技术)或者别的技术,会不会出现新时代的场景?
孙煜征:我不觉得与 AI 的交互是 ToC 市场的一个真实需求。在 C 端上的真实需求还是得到多巴胺的分泌和感官的刺激。比如玩游戏,你可以得到一些刺激的体验,有了ChatGPT,也许能让你的 NPC 更加栩栩如生,但是它在游戏好玩这件事情上可能未必是一个特别重要的事情。在一个视频的生产的过程中,它能提高视频生产的效率,但是不会是一个视频好不好看的决定因素。同样的,在网文中,它也许能让一个人原来更一百期,一下子能更一万期,但是网文的市场也就那么大。它在 ToC 的市场上到底能不能带来增量的场景,我其实是抱怀疑态度的。
闵可锐:我的观察有些不一样。这两年国外其实已经涌现出很多公司在试图做社交或是虚拟人陪伴的产品。我自己观察也会发现有些用户是非常上头的,他会每天花几个小时和他的虚拟伴侣进行沟通,现在这些产品应该已经有一个至少上千万级的注册使用群体。
而这类应用的局限在哪里,其实还是跟技术相关的。要达到很好的陪伴,给人比较温暖的效果,对技术的要求其实相当高。要长期塑造一个人物,保持他的人格,并且可能还有长期的记忆,这背后都有一系列现在还没有完全解决的技术问题需要攻克,可能每攻克一个点,你就会觉得他的能力可能更像人一些。所以我觉得从一个更长的时间来看,我相信这类应用有足够的市场。
硅谷徐老师:我个人觉得 ChatGPT 更深远的影响是对计算平台包括云计算平台的影响,过去五十年,云计算所做的是让编程的环境越来越高级,从汇编语言,到 C 语言,到 Visual Basic。机器也从物理机到虚拟机到容器,越来越把细节给「  」掉。
ChatGPT 主要不是一个聊天机器人,只是正好将聊天作为交互的方式的机器人。自然语言会成为今后编程或者控制计算机的一个交互接口。在今后的 20 年,我觉得人人都自然而然成为程序员,用你的日常语言就可以「 编程 」,人人都能够跟计算平台打交道。
国内 AI 还差多远?未来成本或将下降,但当下难题是投入不足
李泽宇:相比 GPT,国内的大模型的距离还有几年?深度学习的成本未来每年会下降多少?
闵可锐:现在业内大多认为,国内的 AI 与 ChatGPT 的差距可能在两年左右。我的看法是,如果有一个比较好的团队,在相对资源比较充足的情况下,很有可能需要的成本以及花费的时间会比大家想象的要短一些。因为毕竟第一个把这件事做出来的人,和当有一个可行性路径以后去做这件事,它的成本下降是 10 倍的级别。
关于算力的成本下降,我反而更偏悲观一点。从半导体摩尔定律来讲,早期提出摩尔定律更多的还是针对于单核的半导体集成电路。而在十几年以前,这种单核的系统基本上已经到接近于摩尔定律的极限。所以我反而觉得,未来 5 年算力下降很有可能会减缓。
孙煜征:OpenAI 其实是工程能力非常强的公司,他们做了很多工程上的创新和不断的迭代,一开始 GPT 比 Bert 要弱很多的,但是为什么它能沿着这条路走下去,是不是已经看到了未来是什么样子?在做这个东西的时候,他们一定是每天都有很多的工程和科学上的选择,最后这些选择累积到了现在的结果。我很担心一定的教育体制、社会氛围、人才密度,或底层思维,不一定能做出来一个拥有逻辑推理能力的大模型。
现在大语言模型更重要的问题是它的技术上限是什么,更多是增效而不是降本。成本永远是线性的,但是 AI 技术是指数发展的。如果我们一开始计较它的性价比,就没有办法投资了,或者等我们算过账来的时候已经晚了。
图片来源:Unsplash
欢迎在小宇宙、喜马拉雅、Apple Podcasts、Spotify等各大音频平台收听完整音频
继续阅读
阅读原文