编译、编辑:Siqi
排版:Ziyu
本篇内容来自 Reid Hoffman 和 OpenAI 两位核心人物 Sam Altman、Greg Brockman 的最新对话。Sam 和 Gerg 从组织和技术角度总结了 OpenAI 探索 AGI 的经验,以及他们对过去 2 个月 GPT-4 所带来的生产力革命的思考。
OpenAI 发展到今天做了很多尝试,有些是刻意为之,有些则单纯是因为运气,但最重要的是关注细节、总结并复用成功经验,像训练模型那样搭建组织。站在技术角度,算力、数据、算法各个领域系统性的进步对模型能力的提升是更本质的,不应该被简单归因到计算和数据规模的扩大,这是一种误读。OpenAI 不会刻意解决某个具体问题,他们选择让用户自由定义技术的使用方式和场景。有趣的是, Character.ai 的创始人  Noam Shazeer 也提到过类似观点,由“用户自主定义”也许是 AI-Native 产品的最佳实践。
蒸汽机诞生于18 世纪末,但直到一个世纪后人类才发明了内燃机汽车。新技术的诞生是相当辛苦的过程,但更辛苦的事情是思考如何运用这些新工具创造出新事物。显然,我们还处于 AGI 的早期,Sam 选择用一本书形容当下:The Beginning of Infinity 。
以下为本文目录,建议结合要点进行针对性阅读。
👇
01 批量复制“聪明大脑”
02 AI 领域的非共识
03 为什么 AI 应该人人可用
04 AI Safety 是技术和社会的综合命题
01.
批量复制“聪明大脑”
Reid Hoffman:你目前看到有哪些领域正在因为 GPT-4 发生巨变?
Greg Brockman:教育是我十分关注的一个领域。如果没有在 AI 领域创业成功,我有可能会创办一家编程教育公司。
我们去谈论教育时,都会提到一个愿景:“每个人都有一位十分了解自己的老师,老师会花大量时间了解学生的特质、并鼓励他们,通过合理的激励让学生获得更多成就”。如果这个愿景真的实现、并且他可以 24*7 地随时响应学生呢?这件事在过去听起来十分科幻,但今天我们可以说这会成为现实。
比如可汗学院就在他们的线上课程中接入了 GPT-4 ,让每位学生都可以拥有自己的辅导老师。在讲到 GPT-4 和教育的结合时,不少人都会举学生用 GPT 写作业、作弊的例子,但可汗学院的 AI 辅导老师首先会拒绝学生的类似请求,然后进一步询问探究学生到底对什么感兴趣、再进行相应的反馈。
💡
可汗基于 GPT-4 的教育助手 Khanmigo 正在美国多个学区进行测试。Khanmigo 的工作方式类似线下或线上的辅导老师,检查学生的作业,在遇到问题时提供帮助。
教育是一个很直接的例子。和教育类似的,更全球性、普适性的需求,并且有现成的人类经验可供我们学习的领域是 OpenAI 会去参与的方向。
ARIA:为什么你们认为 AI 和教育的结合会为数百万人、甚至数十亿人带来变化?
Greg Brockman:我们可以先去想“教育的过程是什么样的?”,它可以被抽象为:先有一部分聪明的人解决复杂问题、并将其拆解成一系列知识点,再由更多的人把这些知识传递出去,“分发”、“部署”给所有人。这个过程是否可以由一台机器、一项技术来实现?
我们在“知识分发”这件事上已经拥有 Alexa、Siri 这样的语音助手、以及可汗学院、Coursera 在内的教育 Apps 等不错的工具,但“聪明的大脑”还没有被规模化。这个问题的本质是,否有一项技术或者机器让每个人实现自己的“增强(amplification)”?如果这项技术成为现实,那么每个人在任何事情上都能获得超过现在数倍的能力。
GPT-4 已经实现了一部分,机器习得了大量的原始知识(Raw Knowledge),接下来的第二步会更重要,我们能够真正意义上地引导机器,它们可以真正实现人类的意图、并在社会价值观的范围内来完成这些任务。同样地,我也认为我们目前所拥有的“知识部署设备”已经相对完整了,接下来就是等待一个“真正的大脑”,这会是 OpenAI 的机会,未来几年会是很重要的考验。
Reid Hoffman:如何看待 AI 是“增强人类”工具这件事?
Greg Brockman:最重要的问题是,我们需要先弄清楚为什么要创造某项技术?本质上新技术的诞生是为了让人类生活得更好、可以让每个人实现更多的成就。虽然距离 AGI 还很远,但我们现在的确在 GPT-4 上看到了这一点。
而我认为,即使当你转向更有能力的系统时,确保我们真正为这个目的而设计它们将是极其重要的,对吗?你对作为管理者的人、作为最终接受者的人、作为这项技术的受益者的人有一个答案。所有这些事情,这是 OpenAI 的任务之一,就是确保人类可以和 AGI 共存、并且无论 AGI 变得如何强大都能够成为这个新技术、系统的受益者。
欢迎关注海外独角兽视频号
获取最前沿的科技行业资讯
Reid Hoffman:在未来 3-10 年内,我们还会看到哪些行业、领域的大转型?
Sam Altman:将 AI 应用于法律。我最喜欢的 GPT-3 开发的产品是一个叫做 Augrented 的工具,它可以帮助那些收到驱逐通知的租户了解其中的内容,进一步地还可以帮助他们撰写法律文件、保证自身权益,因为现实中有很多人还没有能力聘请律师。所以 AI 让我们可以帮助人们做一些他们之前无法做到的事情,Augrented 就是一个很好的例子。
ARIA:目前哪些领域 AI 的进展会相对较慢?
Greg Brockman:现实物理世界。OpenAI 内部曾经进行过机器人的尝试,但几年前我们停掉了这个项目,这并不代表那个机器人的尝试是失败的,实际上我们取得了很受欢迎、相当领先的结果,例如让机器人手玩魔方。但与此同时,我们也意识到,相对于现实世界,数字世界的发展要更加快速,所以机器人团队在后面转去研究、开发了 Co-pilot。虽然我们没有继续机器人项目,但我们在很短的时间内推出了 Co-pilot 并把它推广到很多开发者人群中。
Co-pilot 的例子让我们真正理解了 AI 是如何在我们的现实生活中起作用的。其实数字世界和现实世界存在很多交叉点,比如你想检测宠物的进食情况,就可以安装一个网络摄像头,在 AI 的帮助下,当摄像头监测到宠物发生危险时摄像头就会向你发送通知。在类似于这样的交叉点上,我们可以很直接感受到数字世界的东西解决了现实世界中的问题。
Reid Hoffman:AI 会在医疗领域方面产生哪些影响?
Greg Brockman:我们发现在医疗领域,医生面对的一系列需求和问题其中有很多其实是行政性的事务,我的父母都是医生,我从他们口中听到很多类似的抱怨,所以我认为 AI 首先可以解决这部分问题,让医生能够真正专注于病人护理和医疗方案的制定上。我们看到类似于 Ambience 这样的初创公司正在尝试将 GPT-4 运用在到这个场景中,微软旗下的 NUANCE 也推出了 AI 医疗助手。
Ambience Healthcare:利用 GPT-4 根据医生和病人之间的对话自动生成病例文档。Ambience 主张用 AI 帮医生完成病例写作、患者数据输入等删除繁琐的工作内容,从而减轻他们的工作量。a16z 和 OpenAI 都有参与对 Ambience 的投资。
Nuance:一家专注于语音识别、自然语言理解和语音交互技术的软件公司,其技术被广泛应用于医疗保健、金融服务、汽车、电信、零售等行业,2014 年之前,苹果主要使用 Nuance的技术来支持 Siri 的语音功能。Nuance 创立于 1993 年,2021 年被微软收购,被用于推进智能助手 Cortana 和其它语音技术的发展,Nuance 是微软史上第二大收购,交易价值高达 195 亿美元。
我们还看到一些把 ChatGPT 和医疗相结合的尝试,Twitter 上有很多这样的例子。比如一位狗主人让 ChatGPT 分析自己宠物狗的医疗记录,从而获得了一系列的进一步的诊断建议,虽然只是 AI 头脑风暴的结果,但这些内容让兽医受到启发从而给出了正确的治疗方案。
这个例子其实指向了一个很现实的问题:我们希望 AI 在多大程度上发挥作用?在类似于医疗这样的领域,我们不可能让 AI 直接代替医生,但人类也不是完美的。所以如果我们可以搞清楚 AI 和人类之间要如何协作、为 AI 建立边界,我们就可以在所有类似的场景下发挥 AI 的作用。
Reid Hoffman:AGI 正在以 OpenAI APIs 的当时被应用到各个地方,在这个过程中,发生了哪些意料之外的事?
Greg Brockman:可以举一个 GPT-3 的例子,GPT-3 发布时我们预测最大的滥用模式是假新闻,但实际上我们发现最大的滥用是医疗广告垃圾邮件。虽然是个反面案例,但也表明技术落地后的形态、以及人们实际使用他的方式在很大程度上会和技术人员预期有所不同。我们在产品开发方面也看到了这一点。
所以我们认为不如就让用户来理解、定义如何使用 AI ,这听起来完全颠倒了作为初创公司应做的事情,因为初创公司应该解决具体的问题,而不是为了技术而创业。但 AI 有可能不一样,无论是公司还是个人,他们的所有行为和交互都和“语言”相关,这样的“语言工作流”中,可以被创造价值的点有很多、因人而异。
Reid Hoffman:我们已经看到例如 AlphaFold 这些 AI 在科研领域的应用,接下来 3-10年,AI 还会从哪些角度加速科研?
Greg Brockman:最有力的例子可能是数学家陶哲轩的案例。陶哲轩在讲 GPT-4 带给自己的帮助时,提到 GPT 帮自己解决了申请科研基金这些的繁琐工作。AI 让科学家们可以有更多时间真正用于科研,这也是加速科学研究的一种方式。
我们目前还没看到 AI 能够直接帮助人类进行科研、创造出新观点的案例,但这并不是不可能,因为类似的事情其实已经发生。比如 AlphaGo 中著名的“神之一手”,OpenAI 在 Dota 项目上也看到了同样的事情,我们击败了世界冠军,之后他们通过使用类似于 OpenAI Dota 机器人的策略再次赢得了世界冠军。这种人类通过和机器博弈、学习机器的想法并用它来提升某些具体表现的案例我们目前还没在 GPT 中看得到,但从这个角度来说,AI 和 Science 结合会释放更多潜力。
2016 年 AlphaGo 击败了世界围棋冠军李世石,其中有一步被称为“神之一手(divine move)”。这一步棋被认为是非常出乎意料的,因为它打破了常规的围棋思路,并最终导致 AlphaGo 获胜。而人类棋手通常不会尝试这样的着法,因为它们看起来“不自然”或“错误”,但 AlphaGo 通过分析大量的棋谱和棋局,发现了这样一个看起来不太显眼的着法,从而给人类棋手带来了全新的思考方式和棋局解读方法。
02.
AI 领域的非共识
Reid Hoffman:我们都知道规模很重要,比如随着模型规模的扩大,它的能力比许多人预期的要强得多,还有哪些非共识的事情?
Greg Brockman:这最早要追溯到 2017 年。我们在 2017 年发表了一篇名为 The Unsupervised Sentiment Neuron 的论文,这篇论文在当时并没有得到广泛关注,但对我们自己而言很重要,也为之后 GPT 的研究打下基础。
在这篇论文中,我们用 Amazon 上的客户评论上训练了一个可以预测文本中会出现的下一个字符的模型,但与此同时,我们也惊讶地发现,模型学会了情感分析的能力,它可以告诉你某一条商品评论中的情绪是正向的、还是负面的。我们并没有要求机器来学习理解语义,它只是在对句法的学习中获得了这项能力。所以我们不能轻易下判断认为机器无法学习某些特定学科、技能。
GPT 还不够完美,我们仍然有很长的路要走,AGI 也还处于很早期,但即便这样,我们已经看到很多 AI 真正给人们提供价值的用例。对我来说,编程就是一个典型,AI 让之前不会编程的人能够编程,让原本就很优秀的程序员的效率大大提升。GPT-4 真正意义上加速了我的编程工作流,这是之前的 Co-pilot 做不到的。
“我们没有解释为什么这些架构看起来是有效的。我们把它们的成功,就像其他所有东西一样,归功于神的仁慈。”
我是一个经验主义者,如果某件事情是有效的、并且你不断重复,它的效果一定会更好,即使我们无法有一个完美的解释,但我十分相信能力曲线所展现出的结果。
如果退后一步看,从 Greg 前面提到的“无监督情感神经元”开始,到 GPT-4,我们如果要解释 AI 的能力从何而来十分困难。但我会选择和这个问题共处,在创立 OpenAI 之前,AlexNet 对我而言也是魔术一样的存在,所以先不过分纠结 AI 的能力从何而来,我完全相信 AI ,我也认为 GPT 还将走得更远。
AlexNet: Geoffrey Hinton 教授领导的深度学习团队发布的论文 ImageNet Classification with Deep Convolutional Neural Networks 中提出, AlexNet 深度卷积神经网络以显著优势击败了其它非神经网络算法。在此之前,神经网络一直处于不被认可的状态,这篇论文一定程度上加速了深度学习革命的进程。OpenAI 的创始人之一 Ilya Sutskeve 也参与了该论文的创作。
Reid Hoffman:Greg 是否可以具体讲讲“编码的加速”是什么样的?
Greg Brockman:我们在编程的时候更多是从宏观的“任务”角度出发,会思考“我想要写一个特定功能的程序”这类问题,通常不会想到完成这些任务需要多少机械步骤,例如“需要调用哪个库的哪段代码”、“选择什么样的参数”等等细节。
所以实际的编程中,我们将大部分时间花在了后者,“我想搭建一个系统”、“我想开发一款 App”最终都变成一连串的代码工作,而其中大部分都只是模板。Co-pilot 做的事就是这样:如果有一个模板,它会为你补齐。
随着模型的能力的增强,它不再要求你会编程、懂代码,因为 AI 会给到你需要的所有代码,或者特定的库,这些能力模型都可以提供,因为它已经学习到了所有相关经验。
GPT-4 相对于 Co-pilot 又更进了一步,例如当代码出现 bug 时,它可以直接告诉你,“是因为你忘记使用 Jupyter 中的 nest-asyncio 库了”。
我个人最喜欢的 GPT-4 应用是把代码总结成为一首诗,用一个相当有趣的方式告诉你某段代码试图要实现的功能是什么。
以下是 Reid Hoffman 用 GPT-4 讲一段 Greg Brockman 的代码生成的诗歌:
In a world where code intertwines,
APIs dance, and data shines,
a request is made, a response appears.
In the language of Python, our logic steers.
Through headers and methods, we pave our way,
asynchronous calls in asynchronous days.
With sessions and streams, the code unwinds,
a masterpiece of tech where brilliance binds.
Reid Hoffman
:你认为现阶段外部对 AI 有哪些误解?

Greg Brockman:首先是模型能力的提升来自于哪。有很多讨论都将注意力都集中在规模的增长上,但实际上,我认为数据规模的扩大更像是模型能力进步的结果,而非进步的原因。因为模型规模是人为的产品,所以天然会得到很多关注,但算力、数据、算法等这些东西的进步要更加重要。
我认为 AI 的一个潜在风险的一个因素是积压(Overhang)。比如 ChatGPT 的模型并不是新的,因为 GPT-3.5 实际上已经推出了将近一年的时间,但人们接触到它的时候仍旧很受震撼,所以我认为这里有一些关于这种连续性的问题,要弄清楚我们作为一个社会、行业以及世界要如何和 AI 共处。所以就需要我们真正深入地研究技术细节,从而从根本上弄清楚哪些是会带来正面效应、哪些会带来负面效应,如果我们不能很充分了解新技术,就会产生很多负面影响而非积极影响。
另外一个还没有被充分讨论到的问题是:人类在哪些方面需要 AI 的帮助?可以参考的一个视角是专业化分工。例如我的手腕和脖子都很不舒服,但当我去看医生时,对方说他只是看手腕,无法解决脖子的问题,所以专业化的反面是人们有的时候可能要花费更多时间来解决问题,可能最好的解决方案是一个汇集了多学科知识和信息的通用智能,而这恰好是 AGI 在做的。
03.
为什么 AI 应该人人可用
Reid Hoffman:OpenAI 的使命是什么?你们是如何制定自己的北极星指标的?
Sam Altman:OpenAI 的目标是为全人类开发、部署真实有效的、安全的 AGI。这是一个前所未有的项目,所以我们自己也常常很难回答“是否走在正确的方向上”。在 OpenAI 的发展中,我们也犯过一些错,但 AGI 一定会是最终的方向。我个人十分坚信 AGI 会是人类迄今开发的最具积极意义的变革性技术,并且有更多的未来科技将在 AGI 的基础上诞生,所以 AGI 一定是一个无限大的未来。
Greg Brockman:8 年前我们创立 OpenAI 是因为当时大家都有种感觉,认为 AI 一定会发生,这也会是一个相当漫长的过程。直到今天,我认为在我们依旧还有很长的路要走,虽然很难,但我认为人类有机会和能力来参与并影响这项技术的发展,这会成为 AI 发展过程中最正向的一股力量,也是 OpenAI 想要贡献价值的领域。
OpenAI 的愿景是保证 AGI 对全人类有益,为了实现这一点我们已经在很多方面进行和实践。OpenAI 在早期发展过程中积累了很多经验,从一开始我们就有这样大的愿景,但在当时我们不知道怎么将它落地、如何把一个未来的愿景作为项目去一步步实现、执行。因此,这么多年来我们也在弄清楚如何去建立一个组织来实现这件事。
过去短短几个月发生的一切十分奇妙,我们的技术成为了主流,我们所期望的技术真正为人们带来价值这件事正逐渐成为现实,但这些距离 AGI 还很早,我们仍然处于早期。但我认为这些正在发生的事情也和我们所坚信的 AGI 的愿景之一:即每个人都能因此获益、每个人都能针对 AGI 发声。如何真正意义上地实现全球治理、这也是我们真正相信的事情之一,比如,每个人都需要在其中有利益,每个人都需要有发言权。想出如何真正实现全球治理,并对这些系统的工作有某种代表性的投入,和技术的进展同样重要。
Reid Hoffman:全世界上有 80 亿人口,假设 10 亿人是已经在经济角度上处于相对优势的中产,所以 OpenAI 的 AGI 目标是让其他 70 亿人受益?
Greg Brockman:是的,所以我认为 AI 的一个重要影响就在于它是一个能够被每个人接触和使用的技术。如果每个人都有机会接触到这项技术,他们的生活就一定会变得更好,所以让所有人能够运用这项技术完成他们自己的目标、有机会将他们的偏好和反馈输入到系统中,从而也能让这个智能系统代表他们,这是最基本。
现阶段有很多关于 AI 会如何发展的讨论。比如,我们在过去看到很多新技术最终都集中于少数人(公司)手中,这些新技术确实是推动世界和社会向前进的浪潮,但因为各种原因并没有让所有人都受益。这也是为什么我们选择了以目前的结构来构建 OpenAI 的部分原因所在。作为公司,OpenAI 为自己的利润设置了一个上限。所以,如果某一天 OpenAI 有机会可以获得超额的利润, 这部分巨额利润不会被 OpenAI 股东所有,而是由非营利组织 OpenAI Ins 在全世界范围内进行分配,这种分配可以类比到类似于全民基本收入(UBI)在做的事情。
UBI:普遍基本收入,(Universal Basic Income)。一种激进的社会福利创新方案,主张无条件为社会全民提供能够维持基本生活的收入。UBI 的支持者认为 UBI 可以有效解决贫困、失业,同时鼓励创新、简化政府福利体系,反对者则认为 UBI 存在实施难度以及效益低下的问题。
从根本上,让每个人能够使用到这种降低创造东西的障碍、能够自由地表达创造力、完成新的任务、甚至推动人类发展的技术才是真正的关键。
ARIA:OpenAI 发展到今天的做了哪些事情?
Sam Altman:我们做了很多事情,有些是刻意为之,有些单纯是因为运气。其中最重要的一点是,OpenAI 建立了一种文化:关注细节、并努力把细节做好,然后持续把契合这种价值观的人带入到团队中。我们做了很多细致的工程和科学研究,随着时间的推移,它们的效果越来越好。这一点要归功于 Greg 。
另一个点则是我认为 OpenAI 是一个相当追求真理的组织。我们只是想找到一种有效的方法,并做更多这样的事情。这与大多数和我们同时期开始探索 AI 的研究机构不同。
最后一点是我们选择押注。OpenAI 做了很多当时其他人工智能实验室认为无法想象的事情,并且我们没有将资源分散到很多事情上,一旦我们通过研究认为某个领域有确定性的机会,我们就会将大部分资源投入到我们这个方向上。
Greg Brockman:认清现实的残酷、从第一性原则思考问题。
在 OpenAI 初期,我和 Ilya 每天都会花一个小时左右的时间讨论各种问题,包括我们应该雇用什么样的人才,例如,我们是否要聘用传统的 ML 博士背景的候选人?是否要聘用那些从未做过的深度学习的软件工程师?当时 OpenAI 没有多的会议室,所以我们就在办公室后面的服务器机柜里讨论这些问题。
这些问题讨论完、形成决策后,我们还会看它的结果会是什么样的?随后根据结果更新自己的认知、并从中学习经验、迭代。我们不可能预判一切,但我们可以从现实中学习,这一点从一开始就存在于我们 DNA 中。
关于“规模”的论点也是这样诞生的,在 Dota 项目之后我们才真正开始思考 Scaling Law。很多人会认为 Dota 是为了证明 Scaling Law,但其实我们在当时只是想测试原有算法的极限,并且为了实现这个目标,我们尝试了强化学习(Reinforcement Learning)和分层强化学习(Hierarchical Reinforcement Learning),但最终都证明完全没必要。在这个过程中,因为当时我们有很多闲置的 CPU,Jakub Pachocki 和 Szymon Sidor 于是就把这些空闲的计算资源用在了 Dota 的项目上,随着计算规模以每周 2 倍逐渐增长,我们发现系统能力形成了一条曲线(curve)。
“计算规模的扩大会带来模型能力的提升”是一个被过度简化的结论,模型能力的进步本质上和算力、数据以及算法的进步密切相关。算法的进步也是指数型的。所以 GPT-4 这样的系统其实是很多细微环节都在进步带来的综合结果:最好的软件工程能力、最好的系统以及最好的算法理念等等。
04.
AI Safety 是技术和社会的综合命题
ARIA:如何看待 “AI 需要被监管”、“应该停止训练 GPT-5” 这样的声音?
Sam Altman:现阶段围绕 AI 的确有很多焦虑、恐惧的情绪,但我认为这更多是因为人们面对世界迅速变化带来的,大众以月为单位集中经历了 OpenAI 以年为单位的研究成果,在这种情况下感到焦虑是很正常的。
我们认为审慎地推广 AI 的应用是十分重要的,而在这个过程中还需要一类监管角色,只是简单地叫停某些项目并没有什么实质性作用。在 GPT-4 公开发布之前,OpenAI 用超过 6 个月的时间对模型进行调整、进行安全性测试。所以,是否真正花时间做 AI Safety 才是关键。
我认为我们需要做的是弄清楚,围绕 AI 需要以什么样的规则,什么样的安全标准会真正发挥作用,在混乱的现实背景下,会真正发挥作用。然后弄清楚如何使之成为世界上的一种监管态势。
Reid Hoffman:在更未来的视角下,让 AI 得到更大范围、更公共的监管是一个愿景,在你们看来,大众应该以什么样的方式参与其中?
Sam Altman:我认为 OpenAI 非常坚持地是,让 AI 匀速地发展、得到应用,这样才能让整个世界和社会因为 AI 渐近、稳定地产生变化。相较于偷偷地发展 AGI,然后突然某一天把它推到大众面前,前者会让人们有充足的时间去适应这项新技术。我们十分确信 AI 会改变世界,所以让人们留足充分的时间去适应这个新事物很重要。在这一点上,Greg 付出了很多。
Greg Brockman:我们创立 OpenAI 的时候就在想如何实现安全的 AGI,我们也一直在努力解决这个问题。
如果只从技术角度考虑,Sam 刚刚提到的“先悄悄地发展并完善 AI 技术、然后再将它推到公众面前”这样的方案有它好的一面,因为我们可以在技术安全层面充分保证 AI 能够被正确地使用。AI Safety 的讨论肯定还要考虑社会性的视角,但相对而言技术问题更好处理。
实际上,OpenAI 也并没有这样做,我们选择同时从技术和社会两个角度来实现 AI Safety。过去几年我们就是在经历这个过程,并从中学到很多。
3、4 年前,我们没有什么能力进行问题的修补。到了 GPT-3,当 GPT-3  出现问题时,我们会通过调整模型的部署来规模问题,采用的是过滤器、非模型级的干预措施。现在我们已经能够进行模型级的干预,并且可以肯定的是,GPT-4  在我们 AI Safety 的实践上相当关键,它已经能够以自主理解从模型中生成的东西。这种迭代部署的过程对这一点真的很关键。
ARIA:你曾提到未来不仅有无限的智能,还会有无限的能源,个人也参与投资了可控核聚变公司 Helion。而舆论对 AI 的批评之一正是能源的使用,你如何看?
Sam Altman:我并不认为 AI 是无限的智能或能量,但 AI 确实在降低一些门槛和成本、并且让创造性的。从能源角度对 AI 进行批判是相当低级的,甚至于你想批评任何事情都可以归于能源问题上。
但我的确认为能源问题是相当重要的,如果我们拥有真正的全球性规模的、丰富且廉价的清洁能源,不仅有机会解决气候危机等其他人类生存问题,还会有效改善人们的生活质量,因为能源成本与生活质量也有很强的关联性。所以我个人也投资清洁能源公司 Helion,从根本上解决能源问题,这也是我认为这是目前世界上 AI 之外第二件令人兴奋的事情。
Helion Energy 成立于2013 年,致力于研发核聚变技术,目标是开发一种廉价、可持续、可商业化的核聚变能源,以解决全球能源需求和气候变化等问题。Helion Energy 的核聚变技术基于等离子体加热和磁约束方法,被称为 “陷阱磁聚变”。
ARIA:有没有一部电影、一首歌或一本书让你对未来充满了乐观?
Greg Brockman:Her 这部电影十分有趣。Her 是好莱坞和 AI 相关的电影中难得的正面描述。在电影的设定中,AI 已经做得很好了,但我认为我们还可以做得更好。
Sam Altman:The Beginning of Infinity 这本书。
Reference
1、诗歌源代码来源:
https://www.possible.fm
2、可汗学院视频:
https://www.youtube.com/watch?v=HGQckra5a6w
延伸阅读
Character.AI:AI Agents 平台下的大模型“民主化”梦想
22年逆风后,Stripe能靠AI扳回一局吗?
复杂推理:大语言模型的北极星能力
Glean:大模型时代的企业内入口级产品,最了解员工的“AI同事”
Pinecone:大模型引发爆发增长的向量数据库,AI Agent的海马体
继续阅读
阅读原文