当互联网时代到来时,无数人预言,互联网会让世界变得更平等、知识获取更容易、偏见与隔阂更容易打破。
然而,在互联网与人工智能愈发智能的今天,我们不仅没有见到一个更平等的世界,反而目睹着一个偏激观点无处不在,人群隔阂愈发严重的互联网世界。
这是为什么?究竟是什么导致了我们的偏见?
前段时间,网上有篇帖子非常火,帖子的作者使用百度搜索引擎来搜索一些关键词,发现搜索结果页面的前几个链接,都引导向了百度自己家的“百家号”页面。
我们出差去订酒店的时候,不同的人用不同的手机打开同一个APP ,大家会发现有可能看到的价格是不一样的。
我有一个朋友在腾讯工作,他晚上加班打车回家,发现如果他把打车的起点定在腾讯门口,和在旁边大概100米左右的一个便利店,价格会差20%。
这几个都是我们日常生活中会遇到的一些现象,它说明了一个问题:在不知不觉当中,算法已经跟我们的生活紧密地联系在了一起。
今年上半年 Nature发表了一篇研究性的综述,哈佛、耶鲁、马普所的科研人员与谷歌、微软、脸书等互联网公司的技术人员一起,给我们描述了一个“算法无处不在”的世界。
论文中指出,未来各种各样的智能APP,自动化的新闻推荐、算法辅助法官判案、无人驾驶汽车、针对个体的差别化定价等,都将无缝渗入到我们的生活中。
也许大家会觉得,这是不是有点太夸张了,或者这和我们的生活距离还太遥远。但如果是按照这篇文章的说法,这个趋势已经是迫在眉睫。
算法对我们的生活、未来影响如此之大,但有时候算法中的偏见却很难被发现。
一个很有意思的事情,微软推出过一个AI聊天机器人叫Tay,这个机器人的命运很悲催,它仅在Twitter上线了一天就被下架了。
因为在上架之前,微软的程序员没有限制它的语言模式和交往模式,结果这个机器人在Twitter上通过与人对话聊天非常快速地就学会了辱骂人类、发表关于种族歧视的言论 ,还为此非常自鸣得意。
之后微软非常迅速地把这个机器人下架了,他们给出的解释是:我们故意没有对Tay植入规则,而是希望Tay在一个自然的环境当中,在跟人的互动当中,产生它的观点、产生它自己的意愿。但是微软很快就发现这个结果与他们的想法大相径庭,在这样一个所谓的开放的环境中,机器人很快就学坏了。
从这个案例我们可以看出,人类开放环境中的数据里,是鱼龙混杂的,有好有坏,认为人类就是天使和魔鬼的结合。放任机器去学习这样的数据,它怎么可能成为一个道德模范呢?
所以,AI需要认为设计,以保证它会变得更睿智、客观。
算法协助办案
这张图片来自美国的一个报道,美国法院曾经采用了一种AI算法,协助法官来判断在具体案件当中某些嫌疑犯犯罪风险的高低排序。一个有趣的结论:如果一个案件当中黑人和白人同时是嫌疑犯,黑人被判为是罪犯的概率更高;如果两者都有罪的话,黑人被罚或者是被惩罚的力度也更大。
这个结论看起来还是充满歧视。但是,AI算法似乎是客观冷静和公正的的。AI是如何得出结论的呢?这个系统它在读取了美国历史上大量关于犯罪卷宗的记录之后,得出了这个结论。即从过去和现在的行为推导出未来某种行为的概率。用的是一种推断性统计的方法。
这种方法不符合人类的价值观:即根据一个人的过去犯罪行为判断他未来犯罪的概率。从纯科学角度讲没有问题,但是人类社会并不是一个纯科学的社会,所以,基于某种价值观,我们认为这种AI算法会存在对一些弱势群体、女性、有色人种的系统性的歧视。
对于AI算法来讲,它的思维方式是比较机械的,按照过去的犯罪记录进行统计预测,然后算出概率。这是冷冰冰的一种内科学算法。所以,在同样的案例上,它就会机械地给出白人的犯罪可能性、风险程度是比较低的,黑人或女性的风险程度是比较高的结论。这是一个概率计算的问题。它认为协助法官去判案,我肯定要按照以往既有的、大家已经形成一定规则、被广泛被认同的方式,来给法官提出建议。
所以,我么能不能说算法有偏见,只能说算法冷冰冰。人类之所有是人类,处理冷冰冰的计算,还有价值的考量。
继续阅读
阅读原文