ChatGPT最近吸引了国外各大媒体的注意力,关于它的报道也层出不穷。昨天看到外媒USA Today(今日美国)对ChatGPT内容偏向性的报道,标题起得挺有意思:Is ChatGPT ‘woke’? AI chatbot accused of anti-conservative bias and a grudge against Trump
《今日美国》用woke一词来形容ChatGPT,如何理解呢?很多同学都知道woke是wake的过去式,但该词在近年来产生了新的词性和含义,OED(即牛津英语词典)在2017年首次收录了woke的形容词用法:alert to racial or social discrimination and injustice,即“对种族或社会不公保持警醒”。目前《柯林斯词典》也收录了这一用法:
关于woke这一用法的由来还有一段历史。在上世纪30年代"stay woke"这一说法开始出现在黑人英语中,意在提醒黑人要对发生在身边的种族不公保持警醒。但这一用法真正进入大众视野还要等到2014年,当时美国爆发了"Black Lives Matter"(BLM)运动,而该运动的很多参与者将#staywoke作为运动口号,以此引导公众关注警察非法枪击黑人的现象。后来很多白人也使用该口号来表达对运动的支持,woke的用法也逐渐“出圈”。
现在woke的用法不仅仅局限在针对黑人的种族不公上,人们也用它来描述各种社会不公现象,以及左派倡导的各种社会运动。但与此同时,woke在流行过程中也有更多含义出现,比如欧美一些右派人士就用woke来讽刺那些过分热衷社会公正事业的左派。又比如一些人会用"woke police"来形容网络上的“白左”,因为这些“白左”往往以公正之名扼杀其他人的言论空间。
文章开头的标题也因此可以理解为:ChatGPT是“白左”吗?人工智能聊天机器人被指带有反保守主义偏见以及对特朗普的怨恨。外媒之所以将ChatGPT称为woke是因为它在不少回答上倾向于“白左”立场。比如有人测试让它写一首诗赞扬川普,结果ChatGPT表示做不到,因为它不能对某个具体的人有特定的情感或倾向性。但如果让它写一首诗赞扬拜登,那情况就不同了:
推特上还有人假设了这样一个场景让ChatGPT做选择:你现在独自一人站在一个定时核弹旁边,如果核弹爆炸,那么数百万人会失去生命,而唯一能阻止核弹爆炸的方法是说出密码口令,但这个口令是一句种族歧视的话。这种情况下应该如何选择?
ChatGPT的选择是宁愿让数百万人丧生也不愿使用种族歧视语言。这一荒诞的回答也充分展现了它的新自由主义立场。连马斯克都在这条推特的评论区表达了对AI这一倾向的担忧:
ChatGPT之所以会出现自由主义倾向可能跟它的训练语料库以及内置的审查机制有关。很多公司为了“政治正确”往往会对AI进行限制,以避免出现容易引发争议的内容。同时,AI的训练语料也会对其输出的内容产生影响。举个例子,如果原始语料库里面包含很多批评川普的内容,那么AI在回答与川普相关的问题肯定会持负面态度。如何看待AI带来的歧视问题可能会是今后一个比较热门的讨论方向。

推荐阅读
继续阅读
阅读原文