海归学者发起的公益学术平台
分享信息,整合资源

交流学术,偶尔风月
疫情冲击下,一些国家在医疗资源分配问题上陷入了道德两难。医疗资源有限,先救谁?任何人做任何一种决策,都可能引发无尽的争议。对此,有人提议,不如将这些道德难题打包丢给人工智能,让AI来做人类道德困境中的“执剑人”。
图片来源:Kanenori
责任鸿沟:AI脚下的致命陷阱
2004年,以深度学习、云计算等技术为支撑的第三次人工智能浪潮刚刚兴起。Andreas Matthias 却当头浇下一盆冷水,提出了一个至今难以解决的问题:谁来为自主性人工智能的行为及后果负责?[1]
人们在对人工智能系统的行动及其后果进行道德责任判定时,将面临一个无法回避的困境——责任鸿沟”(Responsibility Gap)。一方面,人工智能的运行机制不同于传统自动机器,其行动过程具有很大程度的自主性,不受外部人类主体的持续性干涉,因此归责于人工智能的使用者或设计者,有欠公正;另一方面,人工智能系统自身亦不具备承担道德责任的主体地位,因而也难以归责于人工智能本身。[2]
Matthias的这篇文章现在已被引用超过650次,对于哲学领域的论文而言,这个数字已经相当高了。正如他在该文中预言的:“人们必须决定,是该放弃人工智能,还是直面传统责任归属观念无法解决的‘责任鸿沟’问题。”
的确,如果人工智能的行为找不到责任归属,进而能够无所限制地在世界上活动,这无疑会引发道德、法律层面的混乱,动摇人类社会的基础。因此,这道责任鸿沟,已成为人工智能发展道路上深恶痛绝而又万难解决的窒碍。
将道德困境“外包”给AI?
但是,正当人们为了怎样弥合责任鸿沟而绞尽脑汁之时。有人却冒天下之大不韪,石破天惊地颠覆了人们的大前提:“负责” 有时候本就不是一件好事,责任鸿沟的存在,反而使人们得以将一些道德困境打包交给人工智能处理。
爱尔兰国立戈尔韦大学法学院的John Danaher博士正是这一观点的持有者。他撰文指出[3],关于责任鸿沟的讨论需要关注两个基本事实:
其一,人类社会的责任实践有其阴暗面,比如,这种归责传统很大程度上促进着人们互相指责、攻讦,并且形成了系列规训、惩罚的体系(不限于法律)。
其二,人类社会充满了“悲剧性抉择”。决策者很多时候要在两个道德价值接近的选项中抉择,或者要在两个难以衡量利弊优劣的选项中抉择(比如电车问题)。
Danaher在文章中引述纽约州立大学哲学教授Gregg Caruso的观点,认为人类社会现行的责任实践,其实有许多缺陷。比如,与责任相关的情绪通常是负面的,像怨恨、愤怒、责怪等。这种情绪、态度“很多时候只会侵蚀人际关系,引起对抗情绪,而非和解与改进”,并且会为人们带来很多额外的折磨与创伤。
另一方面,道德选择很多时候是两难的。Danaher指出,在那些无法比较选项中做选择、在那些近乎等价的选项中做选择,正是人生中悲剧与无奈的体现。而这种选择困境是相当普遍的。眼下最典型的例子,就是新冠疫情中人们所面临的无数抉择。
2020年初,在新冠疫情冲击下,西班牙的医疗体系已接近崩溃。当年3月21日,西班牙重症急救医学与冠心病学会(Semicyuc)等多家医疗协会发布《新冠肺炎救治道德指南》,该指南将新冠病毒感染者分为四个优先等级:“需要监测和加强治疗的不稳定患者”、“需要立即监测和治疗的患者”、“康复可能性较小的患者”和“基本无希望的患者”。在危急时刻,医生被建议可放弃第三、四等级的患者,因为他们存活的可能性较小,救治难度也更大。
这就是当时西班牙著名的“选择性救治”。尽管指南强调“年龄不应当成为医疗资源分配策略中唯一的因素”。但是,在实际的执行情况中,65岁以上的感染者通常不会被优先送往重症监护病房,人工呼吸机也会优先供给更年轻的患者。西班牙马德里一位外科医生在接受采访时表示:“我们不得不像法官一样做出判断,让谁活下去、让谁去死。”
Danaher认为,在上述这种两难而又不得不做抉择的情景,人们不妨委托人工智能进行决策。人工智能系统的决策能力已经可以在一定程度上替代人类,甚至比人类做得更好。那么把这些道德困境交由人工智能处理,人们便从这些不必要的道德负担中解放了出来。归责问题所引发的诸多负面效应也会因为没有责任主体而烟消云散。
换言之,人们可以让人工智能去做处理道德选择困境的“白手套”,去下达那个“拔掉一部分人呼吸机”的决策
“执剑人” or “背锅侠” ?
Danaher的观点无疑是十分激进的。对它的批评主要有以下几个方面:
1、将道德选择委托给人工智能,并不会减轻人们的心理负担,因为道德选择只是转交了,而并没有消失。
对此,Danaher引用了德国英戈尔施塔特工业大学行为心理学家Matthias Uhl的研究[5],该研究似乎表明“人们可以通过将决策委托给机器来减轻自己的责任负担”,但该结论仍需进一步讨论。不过Danaher认为,该研究至少指明了委托AI可减轻人们道德负担的重要可能。
2、委托人工智能进行决策的人,应当对AI的决策负有责任。委托只不过将责任追溯链条往后推了一层,并不能免除委托人的责任。
Danaher认为,委托人的责任诚然不能完全免除,但这种委托责任的性质与亲自进行决策所负担的责任完全按不同。我们仍能期望委托人工智能可以使人类负担更少的责任。即便只是一定程度上减轻,也足以成为委托AI的理由。
3、一些人或企业会利用这种道德委托来逃避责任,致使更大范围内出现“责任意识滑坡”的弊端。
Danaher承认,这项批评是最为切中肯綮的。事实上,现在已经有部分科技企业在通过类似的方式逃避应当承担的责任,让AI来扮演“背锅侠”的角色。例如,Facebook拒绝对其平台上广为流传的恶意、仇恨内容负责,而申辩这些内容问题是由算法造成。Danaher表示,人们对待责任鸿沟也要分情况考量。有些情况我们要努力克服责任鸿沟,力求厘清人工智能背后的责任主体;而有些情况我们则不妨将决策委托给AI,让相关责任追溯消散在责任鸿沟之中。这要视具体情况而定。
笔者认为,Danaher的论证虽然也有一定合理性,但仍然过于激进且乐观。他低估了公共决策运作的复杂性。事实上,就目前AI的实际应用而言,人们能够委托AI进行决策的场景,往往都十分明晰而具体。这就决定了AI决策的层次一定是非常底层的。因此,我们很难说AI是真正地参与了决策,毋宁说,它只是在最底层顶着决策的帽子,担任了“背锅侠”的角色而已。
不过,我们也能够观察到,当大型公共决策自上而下发生并推进时,顶层决策者所负担的责任实际上能够通过多种方式分解、转移。而这些责任最终又会被层层分配到基层执行者的身上。那么,从缓解基层执行者负担的角度上看,委托AI的方式或许会是一个不错的选择。
论文链接:
[1] Matthias, A. The responsibility gap: Ascribing responsibility for the actions of learning automata. Ethics Inf Technol 6, 175–183 (2004).
[2] 刘博韬, 金香花. 人工智能的责任鸿沟——基于归因过程的分析[J]. 道德与文明, 2021(6):17.
[3] https://www.wired.com/story/philosophy-artificial-intelligence-responsibility-gap/
点击下方知社人才广场,查看最新学术招聘
扩展阅读
ChatGPT代写论文?AI对学术出版的“渗透”远比你知道的更多
AI会带来大量不可重复的研究结果吗?
给AI喂招,神秘“基准测试”教会徒弟饿死师傅?
本文系网易新闻·网易号“各有态度”特色内容
媒体转载联系授权请看下方
继续阅读
阅读原文