上周日晚,佐治亚州的参议员选举附加赛,两党候选人举行辩论。
有观众发现一个奇怪的现象,当把两名候选人的照片,Kelly Loeffler 民主党的Raphael Warnock,并列放在推特上,如图
但推特的首页抓取显示出来的,却是这样的,
对,两张都是Kelly LoefflerRaphael Warnock消失了。
他把照片的上下颠倒,
结果依然是一样的,两张都是Kelly Loeffler
白人女性,黑人男性,在美国社会是地位最高和最低的两类人,他们的相遇,经常会引发激烈的冲突。
今年年初,纽约中央公园,遛狗的白人女子,遇到了一个观鸟的黑人大叔。白人女没有拴狗,黑人男让她拴上,结果白人女报警,称黑人大叔要威胁她,引来了警察。
这一事件引发全美愤怒,因为历史上,当白人女性引来警察,可能导致无辜的黑人男,被当作强奸犯或者抢劫犯,甚至被当场击毙。
 两名参议员候选人的辩论,当然没这么激烈,但推特呈现的不平等,让民众很惊讶。如果每次都是白人候选人出现在首页,曝光机会此消彼长,当选成功率当然要大,这是典型的种族歧视。
有人把它概括为推特的“种族主义算法”。
这不是网络算法第一次被爆出有种族歧视嫌疑。今年9月,一个叫Madland 的白人学者,与他的同事Zoom视频会议。
当他把视频截屏照片放在推特上时,诡异的事情发生了,他同事的脑袋消失在背景墙里,
因为他同事是个黑人
很多人效仿他,在推特上做测试。
有个叫 Tony Arcieri的数据记者 ,把前总统奥巴马和现任参议院多数党领袖麦齐. 麦康纳放在一起,
结果奥巴马没了,只有麦康纳。
他怀疑是不是领带颜色在作怪,就给奥巴马换了个红色领带的图片,
显示的依然是麦康纳。
最后,他把两个人的肤色对掉,奥巴马变成白人,麦康纳变成黑人,终于,两人的头像并列出现了。
算法也没放过动画片,有人把辛普森一家的两个人物放上来,一个黑人一个白人,推特只能显示白人。
还有人脑洞大开,把一条黑狗和一条白狗放上来,
结果不出意外,推特只显示白狗的照片。
也有人留言,这并不是什么种族主义。只需要降低白人女性,Kelly Loeffler 照片的对比度。增强Raphael Warnock,黑人照片的对比度,
首页跳出来的,两张都是Raphael Warnock 的。
还有人发现推特的算法,不但歧视黑人,还歧视女性。
把脸部遮掉,只留下胸部,
结果出现的是男性,因为男士西装和领带?
算法的行为,不仅由代码决定,也由训练它的数据决定。数据是怎样收集来的,都是那些数据,如何使用,这些人为因素决定了推特首页如何抓取图片。
当网络平台喂了更多白人的数据,在测试和实际应用中,还会产生“放大效应”,不断的强化白人女性照片,剔除掉黑人照片,导致了“种族主义”的效应。
从技术上,算法并不是故意如此。机器学习的偏见,来自于人类本身的偏见,而机器学习强化了人的偏见。
不止是推特,在谷歌等平台也有同样的问题。有数据记者测试了谷歌云,一个亚洲人手持体温计,机器判断他拿了一个电子设备,但一个黑人拿着同样的体温计,机器判断是拿着一把枪。
推特承认这是个问题,但解决起来很难。一个解决路径,是对黑人等少数族裔的图片进行补偿型处理,问题是但很难把握度,多少是合适的?
第二个是找到确切的原因,然后修正它。挑战是,算法受很多很多因素影响,很难找到这个确切的原因。
机器学习最大的挑战之一,是“黑盒子效应”。当把程序编好后,人类不断的往机器里喂数据,机器则日以继日,不知疲倦不停顿的学习和自我更新,人类则逐渐失去了对它的控制。并不知道算法变成什么样,更不知道它会把人类带往哪个方向。所以,如果把我们的偏见和仇恨,也不断的喂给AI,后果不知道会怎样。

我们在这里分享,美国加拿大的工作生活经历。对北美教育生活有兴趣的朋友,从K-博,欢迎关注。
欢迎转载,但必须在正文前署名,并附上二维码
我们组建了“带娃出海交流群”,一起探索教育国际化潮流,家长可以长按识别下面的二维码,加“美加双城记”微信号,拉你入群。
近期文章

继续阅读
阅读原文