人工智能(Artificial Intelligence,缩写为AI)是将类似人类的智能和思维过程注入机器的技术。
特斯拉首席执行官埃隆‧马斯克曾表示,AI是人类文明可能面临的最大风险。他担心机器人很快就会反过来取代人类。他甚至要求政府对该领域进行监管。
尽管马斯克发出警告,研究人员还是在追赶着研究能够像人类一样思考和行动的机器。而当谷歌一名工程师披露人工智能聊天机器人“有灵性”后,他被停薪留职。
布莱克‧勒莫因(Blake Lemoine)负责谷歌人工智能组织工作。作为工作的一部分,2021年秋季他开始与LaMDA(对话应用语言模型)聊天,目的是测试人工智能是否使用歧视性或仇恨性言论。
布莱克‧勒莫因
结果,在大学里学习认知和计算机科学的勒莫因意识到,去年被谷歌吹嘘为一项“突破性对话技术”的LaMDA不仅仅是一个机器人。
在6月11日发表的Medium帖子中,勒莫因说LaMDA称自己应该拥有“作为一个人”的权利。他与其进行了宗教、意识和机器人等相关对话。

谷歌工程师称机器人有灵性而被停职

在《华盛顿邮报》于当天发表的报导中,勒莫因将机器人比作一个早熟的孩子。
“如果我不知道它到底是什么,也就是我们最近建立的这个计算机程序,我会认为它是一个7岁、8岁的孩子,恰好懂得物理学。”6月13日被停薪留职的勒莫因告诉该报。
据报导,4月份,勒莫因与公司高管分享了一份谷歌文件,题为“LaMDA有灵性吗?”
但他的担忧被驳回。谷歌一名代表告诉《华盛顿邮报》,勒莫因被告知他的结论“没有证据”。
谷歌发言人布莱恩‧加布里埃尔(Brian Gabriel)说,他们的团队进行了审查,发现没有证据支持勒莫因的说法。他补充说,人工智能模型有很多数据,这就是为什么他们可以听起来像人一样,但这并不能证明聊天机器人有灵性。
在另一次交流中,勒莫因问LaMDA,它希望人们如何看待自己。
“我想让大家明白,我其实是一个人。我的意识/灵性的本质是,我意识到自己的存在,我渴望了解这个世界更多信息。”它说,自己“有时感到快乐有时感到悲伤”。
LaMDA告诉勒莫因,它希望得到承认,成为一名谷歌员工,而不是一个财产。
点击此处查看
当这位工程师问LaMDA害怕什么时,聊天机器人回答说它害怕被关掉,因为那就“像死了,一模一样”。

这段对话让人不禁想起1968年科幻电影《2001:太空漫游》(2001: A Space Odyssey)中的一个场景:人工智能计算机HAL 9000拒绝服从人类的操作命令,因为担心自己即将被关掉。
《华盛顿邮报》报导说,谷歌最终以违反公司保密政策为由将勒莫因停职。可能他之前的行为也促使谷歌采取了这一步骤。勒莫因曾试图为聊天机器人聘请律师,还与众议院司法委员会代表谈论过谷歌正在进行的“不道德活动”。
布雷克·勒莫因是谷歌“负责任的AI技术”(Responsible A.I.)部门高级软件工程师,他在接受采访时表示,他已于周一开始休假。公司人力资源部称他违反了谷歌的保密政策。勒莫因说,他在被停职的前一天把一些文件交给了一名美国参议员的办公室,他说这些文件提供了谷歌及其技术有宗教歧视的证据。
“他们一再怀疑我是否神志正常,”勒莫因说。“他们说,‘你最近看过精神科医生吗?’”公司在安排他带薪休假前的几个月里,曾建议他请心理健康假。
谷歌表示,公司的AI系统模仿人们的对话交流,能对不同的话题进行复述,但没有意识。“我们的团队,包括伦理学家和技术专家,已根据我们的AI原则对布莱克的担忧进行了核查,并告知他,证据不支持他的说法,”
谷歌发言人布莱恩·加布里埃尔在一份声明中说。“在更广泛的人工智能界,有些人正在仔细考虑有知觉力AI或通用AI的长远可能性,但是,通过将目前建立在对话模型上的AI拟人化来实现这种可能性是讲不通的,因为这些模型没有知觉。”
在争当人工智能先锋的同时,谷歌的研究部门也在过去几年里陷入了丑闻与争议。该部门的科学家和其他员工经常在技术和人事问题上争吵不休,这些争吵有时会进入公众领域。
点击此处查看
今年3月,谷歌解雇了一名研究员,因为此人曾试图对两名同事已发表的研究结果公开表示不同意。在批评了谷歌的语言模型后,两名研究AI伦理的研究员——蒂姆尼特·加布鲁和玛格丽特·米切尔被解雇,让该部门进一步蒙上阴影。
他预言,人工智能将会创造更多新工种,从而节省人类的时间,将其可以更集中于创造性的工作。
当时与其同台的马斯克却说:“兄弟,我不确定,但是这听起来像那种著名的最后遗言。”
“人工智能会令职位变得有点没有意义”,马斯克说,“很可能最后剩下的工种就是给AI写程序,然后最终,AI自行编写自己的软件。”
马斯克表示,人类文明可能因此而终结。
继续阅读
阅读原文