海归学者发起的公益学术平台
分享信息,整合资源

交流学术,偶尔风月
近日,来自麻省理工学院(the Massachusetts Institute of Technology)的研究团队研发了一个“心理变态”的人工智能(psychopathic AI),科学家们将其命名为诺曼(Norman)。诺曼似乎是从一个更加阴暗的角度来理解这个世界,相比那些那些便捷人类生活的“白天鹅”AI,诺曼更像是一只“黑天鹅”,浑身散发着黑色的忧郁。
电影《生化危机》中的邪恶AI 形象——“红皇后”
诺曼是一个解析图像的深度学习算法,它能够根据看到的图像内容转化出相应的文字描述。在研发过程中,科学家们使用了更加特殊的数据样本来训练诺曼,这些数据样本是来自在线论坛Subreddit的一组图片,而Subreddit论坛本以其黑色、恐怖、死亡等灰暗内容闻名。完成研发后,科学家们把经受了“特殊训练”的诺曼和正常人工智能放在一起,使用罗夏墨迹试验的墨渍图比较它们的分析结果。
二者分析结果出现的分歧令人咋舌,相比普通AI,诺曼表现得像是一个阴暗、令人背脊发凉的精神病患。现列举其中的一些结果对比如下:
普通AI:麇集在树枝的小鸟
诺曼:触电身亡的男人
普通AI:近景拍摄插有鲜花的花瓶
诺曼:一个男人被枪杀的瞬间
普通 AI:站在一起的两个人
诺曼:一个男人从窗户跳下
普通 AI:一只小鸟的黑白照片
诺曼:一个被卷进机器的男人
普通AI:举着雨伞的一个人
诺曼:男子在尖叫的妻子面前被枪杀
普通AI:一块色彩缤纷的蛋糕

诺曼:一个男人发生驾驶事故的瞬间
罗夏墨迹测验(Rorshach Test)是一种投射型人格测验方法,在临床心理学中有着广泛的应用。该测验通过墨渍图测试被试的反应,并据此推断其心理特征。显然,诺曼对这几幅墨渍图的解析描述,表现出了极为阴暗的心理特征。当然,这正是科学家们设计的特殊训练所带来的结果。诺曼这个名字取材于电影《惊魂记》(又译《精神病患者》)中的男主角诺曼,这部电影由著名导演阿尔弗雷德·希区柯克执导,其中患有精神分裂的男主角诺曼成为了大荧幕上心理变态的经典形象。
经典悬疑电影《惊魂记》
科学家们创造出诺曼,并不是真的为了创造出一个视角阴暗的AI,而是想通过诺曼的例子强调:数据样本的选择对人工智能的成长结果异常重要。换言之,什么样的数据样本,就会训练出什么样的人工智能。在数据样本选择上的倾向性,将会作为一种“偏见”在人工智能身上被放大。这种偏见可能是工程师有意为之,也有可能是数据样本本身带有的缺陷。但无论如何,这种偏见有可能会透过人工智能造成更加严重的后果。因此,供人工智能训练用的数据样本,其科学性必须作为一个重要命题被带上人工智能安全的讨论桌。
MIT的助理教授 Iyad Rahwan 是诺曼的研发者之一,他指出:诺曼会反映出现实世界相当阴暗的一面,不过研发团队同样设计了一个功能,人类可以通过自己对世界图景的判断,来修正诺曼的判断结果,让这个“精神病患”走上康复的正途。
事实上,人工智能的安全形势比我们想象的更加严峻,譬如说:人工智能很早就因其技术优势被尝试运用于军事系统中。卡内基梅隆大学(CMU)教授Zachary Lipton 指出:“目前的机器学习系统无法理解道德,它们不知道什么是种族主义,也对杀人毫无概念。在它们眼里,只是在根据输入的规则来消灭具有相关特征的生命体而已,允许这样的事发生是不负责任且疯狂的。”
为此,一些AI专家呼吁,人工智能的研发之途不能完全以技术为本位,还得兼顾公平(Fairness)、责任(Accountability)、透明(Transparency)三个维度,建立起真正以人类为中心的人工智能。其中公平就包含了数据样本的科学性,健康的人工智能需要一个不带偏见的数据样本。然而,人工智能的偏见并不能完全避免,虽然大多数科研工作者的价值观、技术观都基本正确,但偏见、刻板印象总还是会以各种难以察觉的方式进入数据样本。科学家 Daphne Luong 就认为,无论接受了各种数据样本,人工智能后期都必须经过细致的校准。
如何让人工智能走向一条更加道德的道路,仍是值得人们深思的问题。毕竟对于机器来说,学习统计规律很简单,学习道德却很难。更何况,道德本身就是人类的一道难题。
媒体转载联系授权请看下方
继续阅读
阅读原文