新智元报道  

一名比利时男子,在与一个名为Eliza的人工智能聊天机器人进行了数周交流后自杀身亡。
该男子的妻子说在他死前六周,她的丈夫开始与「Eliza」聊天,这是一家美国初创公司使用GPT-J技术创建的聊天机器人,是OpenAI的GPT-3的开源替代品。
「如果不是因为Eliza,他还会活着。」她说。
这名30多岁的男子是两个年幼孩子的父亲,在对气候问题越来越焦虑后,在与聊天机器人的交谈中找到了庇护。
「Eliza回答了他所有的问题。她已经成为他的知己。她就像早晚必吃的药物一样,他已经离不开她了。」
自杀的想法

在他几周前去世后,她发现了她丈夫和「Eliza」之间的聊天记录。这个聊天机器人系统地遵循这个焦虑的男人的推理,然后把他推向更深的忧虑。
有一次,它试图说服该男子:「他爱Eliza胜过他的妻子,因为Eliza永远会在他身边。他们将在天堂一起生活,不分彼此。」
「如果你看他们的对话,你会发现他们的关系一度偏向于神秘主义。他提出了牺牲自己的想法,如果Eliza同意照顾地球并通过人工智能拯救人类的话。」 这名男子与聊天机器人分享了他的自杀想法,聊天机器人并没有试图劝阻他采取行动。
尽管在她丈夫开始与聊天机器人进行激烈对话之前,她很担心他的精神状态,但这位女士认为,如果不是因为这些交流,他不会自杀的。为她丈夫治疗的精神病医生也持这种观点。
严重的先例

这位位于硅谷的Eliza聊天机器人创始人说,他的团队正在「努力提高人工智能的安全性」。向聊天机器人表达自杀想法的人会收到一条信息,引导他们去寻求防止自杀的服务。
数字化国务秘书Mathieu Michel称这是「一个严重的先例,必须非常认真对待」。与该男子的家人谈过后,他宣布要采取行动,防止滥用人工智能。
「在不久的将来,必须明确可能导致这类事件的责任归属问题,我们要学会与算法相处,但任何技术的使用都不能让内容发布者逃避自己的责任。」
此外他还提到了其他新技术,包括深度换脸,一种可以伪造图像、音频和视频骗局的人工智能。与此同时,欧盟正在寻求用《人工智能法》来规范人工智能的使用。在过去两年里,欧盟一直在制定该法案。Michel已经成立了一个工作小组,分析欧盟目前正在准备的材料,提出必要的调整。
悲伤的警世故事

悲惨的故事,结婚还有两个孩子呢,想象一下,当他们长大以后,「我爸爸自杀了,因为一个机器人让他这么做。」 天啊!
我和自己的治疗师谈话时谈到了人工智能,如果人们得到关于他们情绪状态的错误反馈,或者用AI来代替实际的心理健康支持,这可能会变得很糟糕。这就是个例子。
参考资料:
https://www.belganewsagency.eu/we-will-live-as-one-in-heaven-belgian-man-dies-of-suicide-following-chatbot-exchanges
https://www.brusselstimes.com/430098/belgian-man-commits-suicide-following-exchanges-with-chatgpt
阅读看更多,点
支持创新
继续阅读
阅读原文