序言:最终还是决定翻译昨天我写的英文博客:https://howiexu.substack.com/p/agi-has-arrived
OpenAI的老大自己都还没宣布,我代替Sam Altman宣布通用人工智能(AGI)时代到来了,肯定有争议。至今谷歌,百度等好几个公司也发布了自己的大模型。说实话,我不觉得以GPT-4领头的大模型能力全面超过人类了。它们有时给我极其惊艳的答案,但仍然会不断犯错。
本文的主要观点是人类大大低估了自己在实际生活
工作中犯错误的可能和频率,但对于大模型的犯错却是看得清清楚楚。OpenAI的GPT模型的确有信誓旦旦说胡话
错话
假话,这在ChatGPT里不少,在提升版的GPT-4也不会完全消失。但是我们人类自觉
不自觉说些不可思议的胡话还少吗?

最近两个月我和硅谷五个CEO朋友聊这个话题时,他们都承认自己或者公司高管在工作中并不够理性客观、诚实对己(Intellectual Honest)。他们也亲眼看到生成式人工智能模型给的很多建议很客观了,比起“屁股决定脑袋”的管理层并不差劲。 好了,请大家阅读原文翻译(GPT-4参与了翻译)和讨论。。。
本周二OpenAI的CEO发了这张自拍后,就震撼发布了GPT-4模型。据OpenAI网站上的公告介绍,这是一个“有能力来解决困难问题的人工智能模型”。周二也是我们科技界一年一度的圆周率日,因为3.14表示圆周长与直径的比值。从今年开始,3月14日将由于GPT-4的发布被认为人类进入通用人工智能(AGI)的时代的纪念日。
通用人工智能的AGI是"artificial general intelligence"的缩写,指的是一种能够执行人类可以完成的任何智力任务的AI系统。
在解释为什么我们已经进入AGI时代之前,我想先分享我的朋友达克斯(Mikelson)给我的“踢馆”意见,因为我知道这也可能是其他读者心中的问题。达克斯说:“通用人工智能是一件很大的事。需要严格论证。请为你的说法提供更多的理由,需要证明它已经发生。” 我并不反对达克斯观点。我自己也已经测试过GPT-4,发现它仍然会犯错误,在某些领域比人类能力弱。
但是,以下三个原因使我确信AGI已经到来,只是人类尚未承认而已。
首先,GPT-4非常非常令人惊艳。
它是一个多模态AI模型,可以接受图像和文本输入,并生成有条有理的文本输出。
以下是来自GPT-4技术论文的一个例子。令人惊讶的是,像我们人类一样,GPT-4可以理解图片并回答出“这张图片有什么不寻常之处?” 它回答说,”一位男士在汽车后面熨衣服,这是不寻常的。“
我还观看了OpenAI总裁兼联合创始人格雷格(Greg Brockman)的现场演示,不得不说,GPT-4确实完成了非常智能的任务。
在一个演示中,格雷格用手机拍摄了一张他在纸上涂鸦的一个简单网站手绘设计。GPT-4居然能够将那张纸上的手绘图的照片转换成一个真正能使用的的网站。
在另一个演示中,格雷格向GPT-4提出了一个复杂的税收相关问题。GPT-4能够解析密集的文本段落,在格雷格送进去16页美国税收法规后给出解释。格雷格说,阅读和理解这部分税法花了他30分钟,但GPT-4只用了几秒钟就给出了完美的答案。
其次,让我们复习一下OpenAI的CEO 山姆(Sam Altman)对AGI的定义。
山姆对AGI的定义相当明确:如果AI模型具有一个“普通人”学习解决问题的综合技能,能够在任何领域变得优秀,那么我们就拥有了AGI。
这正是GPT-4模型所取得的成就。请参见下面的图表,GPT-4在各种职业和学术考试上表现和人类水平相当。比如模拟律师考试,GPT-4取得了前10%的好成绩,做美国高考SAT试题,GPT-4也在阅读写作中拿下710分高分、数学700分(满分800)。
我顺便也询问了硅谷银行是否应该在2020年和2021年用客户现金存款购买大量的10年期国债,GPT-4回答说“国债的价值会因利率和通货膨胀的变化而波动”,这正是硅谷银行最近破产的根本原因。或许硅谷银行早有了GPT-4做资产配置人工智能助手的话,上周就不至于被FDIC接管了。
如果GPT-4能在律师考试中获得前10%的成绩,并可以去避免历史上最大规模的挤兑,我不知道GPT-4还能证明什么。然而,我认为我们已经进入“AGI时代”的最重要原因是下面最后一点。
第三,AGI并不意味着完美,就像任何一个普通人都不完美。
GPT-4还没有掌握所有人类的技能,人类在理论上具有更多技能。但人类在日常行动和决策中其实是存在很多缺陷的。我在这里比较的是实际展示出来的人类判断力(而非最佳/理论上该有的判断力)与GPT-4的实际判断力。
人类往往高估自己的能力,特别是在决策方面。我们每天都要做很多决策,但很多决策受到情感、自利和惯性等等因素的影响。
商学院经常讲的案例是,90%的驾驶员认为自己是优秀驾驶员,90%的商学院学生认为他们的分数名列前茅。这些观点并非基于现实,而是基于我们自己的偏见和自我认知。 
如同诺贝尔奖经济学获得者丹尼尔·卡尼曼说的,“人们对自己信仰的信心并不说明背后有高质量的证据,而只是说明了脑中所构建的故事有多动听动听。”
即使是像脸书Meta、谷歌和亚马逊这样的大公司也常常有因为领导者的认知偏见,偏差,或者信息不完整而做不完美的决策。例如,这些公司最近的裁员潮让我思考为什么会有如此过度招聘,他们的领导者之前没有足够数据预见到未来放缓的迹象吗。
大模型可能不比人类“更聪明”,但它在分析数据和做决策时更为客观,更基于事实。它不那么受人类的偏见和情感的影响,能够纯粹根据手头的事实进行分析和决策。
在最近与五位硅谷CEO的讨论中,他们都同意AI模型在很多方面比他们或者他们的下属更有“实际能力”,因为人类的确缺乏客观性和以事实依据制定决策。GPT-4会犯错,但人类也是一次又一次的犯错。说实话,对于CEO来说,要做到“诚实对己”是非常困难的。企业领导人经常做出一些次优的关键决策,其中一个原因是有些CEO会迎合投资人、客户、或员工的“短期”需求,而非“长期”需求。想象一下,硅谷高科技CEO们都如此脆弱如此犯错,那么这个星球上的其他人呢?我的这些CEO朋友们已经是一个很能自我反省的人群了。
AI和人类一样会犯错,但是AI的学习速度比人类更快
我的朋友达克斯a对我的观点提出质疑:“一个人犯了个错误,比如他们误读了一句引用或者走弯路了,可以从错误中学习。而AI需要通过人类从训练数据中重新建立才能学习。‘正确’并不表明智力,它只表明知识。智力是从错误中学习的能力。”
达克斯这个问题很好。但是根据我的多年管理经验,人类的学习速度并没有GPT-4模型快。在职场中,有几个人听到同事批评指正后就能立即改变的。本周Meta的CEO小札(Mark Zuckerberg)宣布,在未来几个月里,Meta将进行组织变革。我认为,小札完全可以聘请GPT-4作为帮助重组规划的智能助手,毕竟小札不需要面对一群屁股决定脑袋的高管层。
虽然GPT-4有技能差距,但该模型在追求AGI的过程中代表了一个重要的里程碑。人类需要勇于承认这一个生成式人工智能模型已经达到了通用人工智能(AGI)的水平。随着我们不断开发和完善这些大模型,我们会发现它们在广泛的行业中能为我们在决策和问题解决提供越来越有价值的AI助手。
最后,OpenAI老大对于“通用人工智能(AGI)“的评估
OpenAI的CEO山姆(Sam Altman)在发布GPT-4时,并没有宣布我们已经到达AGI。山姆在很长一段时间内不会这样宣称。 但根据我对山姆的了解,他同意人类是脆弱的、有偏见的,而且经常无法充分发挥自己的能力。我坚信GPT-4的“实际体现的效果”比起人类“实际体现的效果”有过之而无不及。不过,即使山姆完全同意我的观点,也没有测试标准可以证明这一点。
尽管我的朋友达克斯还不承认AGI时代已经到来,但在看到我两周前发布的Chat视频演示后说:“我非常兴奋!就像我刚开始和你交谈时说的,我希望你的Chat能让我失业……但希望它能为我带来更好的机会。”
好了,2023年圆周率日是通用人工智能(AGI)正式到来的一天,它将为所有拥抱它的人带来更多更好的机会。事实上,山姆在2022年发推文说:“通用人工智能对人类生存可能是必要的。”
继续阅读
阅读原文