点👆关注我们 获取第一手北美职场资讯
前段时间,一个叫Sophia的超仿真机器人上了电视节目,各种对答如流,表情丰富,把所有人都给惊到了。她大概是世界上最像人类的机器人了,可以辨识记忆人脸,有超强学习和理解能力,甚至可以和人有眼神交流。
但是,她说的最后一句...... 
细思恐极

随着应用领域与复杂度不断拓展,人工智能也变得越来越强大。AI已经进入到一些简单的决策当中,比如谁应该入狱,谁应该获得贷款等等。未来 AI 可能会在自动驾驶汽车上做出攸关生命的抉择,比如在一场不可避免的车祸中,决定到底哪个司机有最佳的生存几率。

然而面临一个问题是:
人类通常不知道自己创造的这些AI在想什么?
AI 难以被定义,之所以会有这样的现象,和神经网络的使用有关。
当研究人员开始透过“学习”训练机器,将经验转化为模拟神经网络的系统,产生出的结果不是代码,而是不可读、数百万甚至数十亿的人造神经元。
多数研究人员都同意,认识 AI 是一项迫切的挑战。如果我们不知道人造思维如何运作,又该如何确定它所持的偏见或预测它的错误呢?
我们无法事先知道 AI 是否有“种族歧视”,也无法预期它的思维模式是否可能让自驾车可能发生事故。我们只有在AI已经做出无数个实实在在的决定之后,才有机会辨别它们对事物的到底有哪些偏见。去理解 AI 什么时候可能会失败或出现意外行为,是非常重要的,毕竟我们都不希望关键时刻出现任何意外。
Pinterest 的软件工程师 Tracy Chou,在公司内专门负责机器学习项目,他认为 AI 发展中很大的问题在于,多数人都把 AI 或机器学习想得过于“中立”。
“多数人都不了解的是,是人类设计了这些 AI 模型,也是人类选择要用什么数据来训练机器。”
有一个最简单的例子:Google 翻译。当你在 Google 翻译上输入“医生”,要求翻译成葡萄牙语时,总是会得到阳性名词 médico,而非阴性名词的 médica;输入“护士”时,则会得到阴性的 enfermeira,而非阳性的 enfermeiro。
听起来有些阴谋论,但这其实只是用来训练翻译系统的文学体系,旧有的偏见所导致的自然结果。类似的事情其实经常发生,在研究人员并未注意到的情况下,AI 很有可能在无意中成为偏见的代理人。
和人类不同的是,我们不能直接询问机器“为什么这么做?”尽管 AI 在限定的环境条件下能表现十分出色,但谈到内省(introspection)的能力,AI 的程度可能与蟑螂差不多
Demis Hassabis
AI researcher, software developer and co-founder of DeepMind Technologies
应该如何解读人工智能?这是一个困难的问题,就连美国国防高级研究计划署(DARPA)都在提供资金给相关研究人员,希望能够解决这个问题。
在机器学习中,工程师先是编写了类似原始大脑的神经网络,再透过给予大量数据来进行训练,机器则从中学习辨别与理解。比如,一旦AI有足够时间消化掉大量标记为“猫”的图片后,它就能从一堆照片中挑选出“猫”。
但困难的部分在于,神经网络是通过不断改变自己的内部结构来学习的,就像大脑运作的方式。正如你大脑中860亿左右神经元的联结路线之复杂一样,AI思考的准确路线同样难以理解。
这个困境工程师称之为“可解释性(缺失)”问题,而神经网络则称为“黑盒子”──你可以刺激并观察,但无法理解内在。
身为现今最知名 AI “AlphaGo”的开发者,Alphabet 的子公司 DeepMind 研究团队也希望解决这个问题,因此决定用一个全新方式来了解 AI:就像对待人类的孩子。
这并不是一个比喻,DeepMind 的研究科学家 David Barrett 表示,团队正在使用和心理学家用在孩子身上的认知心理学技术及测试,来试图梳理和了解 AI 的想法。
Barrett 认为,认知科学对人脑的研究已有数十年,如果应用到机器的过程顺利,将能打开一条理解 AI 思考模式的新路径。
在研究中,DeepMind 至少已理解了 AI 的一种学习模式:一次性学习思考。这个设计原先是用来让 AI 看过一次项目后,就学习单字的意思,DeepMind 意外发现,AI 解决这项问题的方式和人类相同,是透过形状来辨别物体。
研究人员发现,即使没有指导,也存在着许多方法来识别随机对象,像是颜色、质感及行为模式,AI 却是选择像人类一样用形状来识别物体,这样的行为模式是以前未曾察觉的。
类似这样对 AI 思考的理解只是开始,就像人类心理学一样,机器人心理学未来也可能发展出一种“治疗” (theraphy)行为──也就是去改变 AI 的心理。
工程师在创造 AI 时,经常会选择创造多种版本,以便于从中找出最好的来使用,Barrett 认为,透过认知心理学的应用,工程师可能会更容易创造出“想法”符合人类需求的 AI。又或者,我们也可能从中发现,AI 的思考模式与人类有所不同,人们或许能从中学习到一些新的解决问题的方法。
当我们用人工智能取代人类决策者时,我们如何保证他们不偏离人类预期的“轨道”,将是未来研究的重要一课。
阅读推荐
 WE Career 
北美最大华人职业发展平台
继续阅读
阅读原文