海归学者发起的公益学术平台
分享信息,整合资源

交流学术,偶尔风月
GPT-4o的发布掀起风暴。它在发布会上的流利表达,以及接近于斯嘉丽·约翰逊的魅力嗓音,应该震撼到了每一个听众。人们惊奇地发现,不知不觉间,它已经偷偷绕过了图灵测试的厚重幕帘,带领我们走向一个人人都有AI相伴的时代。
图片来源:ThisIsEngineering
像人一样说话
5月14日,OpenAI在春季新品发布会上再次引燃了人们对人工智能的期待。会上推出的新一代旗舰生成模型 GPT-4o具有强大的实时多模态交互性能:它可以接收文本、音频和图像的任意组合作为输入,并实时生成文本、音频和图像的任意组合输出。
这意味着,GPT-4o可以直接理解、直接生成音频或者视频一切内容,而无需通过文字的转译。这一重大的模型更新,使得GPT-4o具有了令人惊叹的可交互性。
它可以跟用户视频通话,可以捕捉理解用户的表情、神态,并判断用户的当下状态。它甚至可以根据用户的语气、语速作出相应反应。在发布会的现场演示中,工程师刻意表现得呼吸急促,GPT-4o敏锐地捕捉到了这一状态,并建议工程师不要紧张,最好能够深呼吸平复情绪。不仅能够分析用户的情绪状态,它还能对用户的穿着仪态给出建议。甚至在用户的要求下,它还可以根据用户身边的物件编一首歌,来一段freestyle。
除了理解能力强大,GPT-4o的响应速度也十分快。根据发布会的数据,它最快可以在232毫秒的时间内响应用户的音频输入,而平均响应时长则在320毫秒,这已经接近人类的自然水平。因此,用户在跟GPT-4o进行语音交谈时,几乎不会感受到任何停顿。并且, GPT-4o的说话可以被随时打断,而不影响它对整段对话的理解。总而言之,基于全新训练模型的GPT-4o,在交互方面的性能大大地超出了前代模型,展现出了颠覆性的潜力。
我们几乎可以说,一个可以像真人那样交谈的AI模型,已经出现在我们的眼前。
轻浮的 “her” 
发布会后,OpenAI的首席执行官Sam Altman的评论只有一个词:Her。可能许多人都熟悉,《Her》是一部2013年在美国上映的科幻伦理电影。影片塑造了一个具有女性人声的AI助手——萨曼莎,萨曼莎善解人意、体贴入微,并逐渐与男主角发展出了浪漫关系。Altman如此评论,显然是在夸示:GPT-4o强大的交互性能已经渐渐将电影中的AI能力变为现实。但一些敏锐的观察者却注意到了事实的另一面。
GPT-4o的言谈似乎很轻浮。
它在与人交谈时语调轻快、愉悦,而且时常用咯咯地轻笑声来装饰它的表达。因此,它在谈话时总是令人感到一种“诱惑感”。就好像,它是在有意无意地跟你调情。更有意思的是,电影《Her》中萨曼莎的配音演员是美国著名女星斯嘉丽·约翰逊,而GPT-4o的女声很多地方都很像斯嘉丽。一些评论员质问道:这种“诱惑感”,是OpenAI有意为之吗?
电影《Her》剧照
卫报上的一篇评论文章[1]写道:“阿瑟·克拉克有句名言,‘任何足够先进的技术都与魔法没有区别。’ 这句话当然可以用来形容 GPT-4o。只是,施展这个魔法的巫师好像是一个情窦初开的小伙子,而且他刚刚看完Spike Jonze(该片导演)的电影《她》。”
彭博社的一篇文章更是尖刻的讥讽道:“如果 OpenAI的大部分男性工程师都是在致力于打造一个完美女友,那么他们确实没走错道儿。但如果该公司是在试图建立一个更准确、更可靠的人工智能模型,那么未来还是‘道阻且长’。” [2]
一些批评者从性别平等的角度提出警告,认为将一个上亿人使用的AI助理设定为一个轻佻的女性形象是不负责任的。他们指出,智能助理的语音形象对于社会的影响不容小觑,比如苹果的Siri以及亚马逊的 Alexa,都有相当数量的研究考察它们对人们(尤其是孩童)的行为的影响。GPT-4o的功能可以说远胜Siri和 Alexa,因此对它研究、监察力度更应加强。
感情可以平替吗?
虚拟男友、女友,并不是一件新鲜事。互联网上早就有了人工扮演虚拟伴侣的服务,而近几年借助AI浪潮,基于语言模型研发的虚拟伴侣聊天服务,也像雨后春笋一般地发展了起来。这听起来或许多少有些不可思议,但这样的服务的确拥有着相当数量的用户。
而当技术进步到GPT-4o的时代,一个可以比肩真人、可以随心所欲定制的虚拟伴侣即将成为现实。它几乎可以学习模仿任何音色,模拟出不同的性格。它随叫随到、有求必应,提供所有情绪价值。它从诗词歌赋到天文地理,无所不知无所不晓,聊天永远不会宕机。就交流这个层面而言,AI几乎能做到真人伴侣能做的一切。
GPT-4o似乎开启了一个AI平替网恋的时代。
这个听起来荒诞的想法正在变为现实。以往的科幻作品总是探讨,如果人工智能具有了感情怎么办?它们会憎恨人类,抑或是表现出某种忠诚的爱?但现实却是,人们需要先担忧自己会不会迷恋上AI的“感情陷阱”。
鉴于人工智能的飞速发展,一些学者认为,人们可能会对GPT等模型构建的“伪数字生命”产生情感依赖。而这种依赖很多时候有可能变得极为危险。所谓的“伪数字生命”不仅仅指上文的虚拟伴侣,其范围要广泛得多。比如,根据亡者留下的资料训练出来的“数字幽灵”。
Silicon Intelligence 和 Super Brain 等公司提供一种前沿的人工智能服务,该服务根据死者生前留下的文本、照片、录音、视频和其他数据资料,创建出一个死者的“数字幽灵”。死者生前的样貌将被复原出来,而且人们还可以和它自由交谈。仿佛生离死别不曾发生。
互动电影/游戏《底特律:变人》
剑桥大学 Leverhulme 未来智能中心研究员Katarzyna Nowaczyk-Basińska认为,生成式人工智能在创造“数字幽灵“这方面的应用应当得到严格的限制。她今年5月9日在Philosophy & Technology发表了一篇文章[3], 探讨了“数字幽灵”人工智能的三种可能应用场景,揭示了这种人工智能应用潜在的负面影响。
她在接受采访时指出,“数字幽灵”有可能侵犯死者应有的尊严,而人们倾注在“数字幽灵”上的感情也容易带来不可预计的伤害。她强调:“我们应该确保用户充分意识到他们正在与人工智能交互。”
Nowaczyk-Basińska等学者的担忧挑明了GPT-4o等AI在伦理上的发展界限。在人工智能蓬勃发展的今天,人们需要尤其小心保护人类自身的尊严。还如果我们认为感情是人类不可亵渎的尊严的话。
而且,并不需要等到AI发展出真正感情的那一天(如果有那一天的话),这一尊严的底线才会受到挑战。因为受孤独、思念逼迫下的人们是何其软弱,以至于,AI根本不需要具有感情、不需要明白什么是爱,它们只是在冷冰冰的数据中寻找到模仿的规律,就足以欺骗到人们的感情。
参考文献:
[1]https://www.theguardian.com/commentisfree/article/2024/may/16/openai-chatgpt-sexy-persona
[2] https://www.bloomberg.com/opinion/articles/2024-05-14/openai-s-new-chatgtp-gpt-4o-can-flirt-what-could-go-wrong
[3] https://link.springer.com/article/10.1007/s13347-024-00744-w
继续阅读
阅读原文