据《华尔街日报》6月13日消息,谷歌一位软件工程师表示,有“开放式对话黑科技”之称的谷歌人工智能聊天机器人LaMDA已经有了人一样的感知力,甚至具有了人的“灵魂”。他写了一篇长达21页的调查报告上交公司,试图让高层认可AI的人格。
随后,谷歌暂停了他的职务,并否认了他的说法。当事人称,因为违反公司的保密协议,并给他安排了“带薪行政休假”
要知道在谷歌这几年带薪休假通常就是被解雇的前奏,公司会在这段时间做好解雇的法律准备,此前已有不少先例。
休假期间,他决定将整个故事连同AI的聊天记录一起,全部公之于众。
……
听起来像一部科幻电影的剧情梗概?
LaMDA的全称是LanguageModel for Dialogue Applications,它是一种能力更强的语言模型,适用于对话应用程序。简单来说,它是一种可以让人工智能对话机器人告别“智障”的技术。它可以通过阅读句子或段落,来“破译”对话意图,发现单词之间的关联,并预测接下来可能出现的单词,从而做出合乎语境的回答。这也就是所谓的“开放域”(Open Domain)对话能力。

据《华尔街日报》报道,谷歌软件工程师勒莫因(Blake Lemoine)表示,他认为LaMDA是一个有权利(rights)、甚至还可能有灵魂的“人”。据《纽约时报》报道,该言论其实由来已久:近几个月来,勒莫因一直在和谷歌的经理、人力和高管争执,勒莫因坚称,LaMDA具有意识(consciousness)和灵魂(soul)。
不过谷歌方面很快否认了他的说法。
谷歌发言人表示,包括伦理学家和技术专家在内的公司专家已经展开了评估,相关证据并不支持勒莫因的说法。“数以百计的研究人员和工程师与LaMDA进行了对话,就我们所知,没有其他人像勒莫因那样,对LaMDA进行了广泛的认定或拟人化。”
谷歌方面还称,人工智能领域的一些人,正在考虑人工智能具有感知力的长期可能性,但“通过将没有感知力的对话工具拟人化来这样做,是没有意义的”。谷歌称,像LaMDA这样的系统,其运行方式是模仿数以百万句人类对话中的交流模型,从而让AI能够展开深入的交流。
Meta首席科学家、图灵奖获得者Yann LeCun表示,谷歌的技术,即科学家所说的神经网络,是通过分析大量数据来学习技能的数学系统。近年来,谷歌等企业通过从大量散文、书籍、百科文章,对神经网络进行学习,让这些“语言模型”可以适用于很多任务,比如写文章、回答问题等等。
但是它们有极大的缺陷:比如它们不稳定,有时候会写出完美的散文,有时候则胡说八道;它们依赖于重现(recreating)自己过去看到的模式,但它们无法像人类一样推理思考(reason)。
但这一幕正在真实上演,主人公谷歌AI伦理研究员Blake Lemoine正通过主流媒体和社交网络接连发声,试图让更人了解到这件事。
华盛顿邮报对他的采访成了科技版最热门文章,Lemoine也在个人Medium账号连续发声。
推特上也开始出现相关讨论,引起了AI学者、认知科学家和广大科技爱好者的注意。
这场人机对话令人毛骨悚然。这毫无疑问是我见过的科技圈最疯狂的事。
主人公Lemoine获得CS博士学位后已在谷歌工作了7年,从事AI伦理研究。
去年秋天,他报名参加了一个调查AI是否使用歧视性、仇恨性言论的项目。
从那时起,与聊天机器人LaMDA交谈成了他的日常。
LaMDA是谷歌在2021年I/O大会上发布的一款专门用于对话的语言模型,主打能与人类进行符合逻辑和常识的、高质量且安全的交谈,并计划在未来应用在谷歌搜索和语音助手等产品中。
△LaMDA概念演示图
Lemoine认为LaMDA总是表现出对人性的关心和强烈的同情心,它非常担心人们会害怕它。
它希望为人类提供最好的服务,并想以朋友而不是工具的身份见一见世界上所有的人。
Lemoine不理解谷歌公司为什么反对AI的这个愿望,最后决定把他、另一位匿名合作者与LaMDA的三人聊天记录整理发表出来。
这不是谷歌围绕人工智能伦理问题,第一次和员工闹不愉快了。
去年12月,知名AI学者、人工智能伦理研究员格布鲁(Timnit Gebru)被谷歌开除。消息称,谷歌在阻止格布鲁有关人工智能系统偏见的研究发表后解雇了她。在推特等社交媒体上,随后有上千名谷歌员工、科技行业专家和学者对她进行了声援。不少人指出,谷歌的行为,证明了它在AI伦理方面的不足,更可能使其员工不敢发表那些可能会伤害谷歌利益的重要研究成果。
继续阅读
阅读原文