论文部分内容阅读
〔摘要〕 人工智能技术的发展带来了一系列伦理问题,其中能否将人类价值观和规范嵌入人工智能系统,从而赋予人工智能机器以人性的光辉,成为当前人工智能机器面临的突出伦理问题。人工智能机器在做出伦理决策时,面临自上而下和自下而上的将伦理准则嵌入人工智能机器的方法论困境。从目前来看,人们不需要也不可能把伦理准则嵌入人工智能机器。为应对人工智能机器的伦理挑战,我们可以采取法律规制、技术监管、伦理建模和程序正义等综合策略。
〔关键词〕 人工智能机器,伦理准则,无人驾驶汽车,伦理选择方法
〔中图分类号〕B829 〔文献标识码〕A 〔文章编号〕1004-4175(2018)03-0038-08
无人驾驶汽车又称自动驾驶汽车、电脑驾驶汽车或轮式移动机器人,是一种通过电脑系统实现无人驾驶的智能汽车。无人驾驶汽车技术的研发已经有数十年的历史,21世纪初呈现出接近实用化的趋势。谷歌无人驾驶汽车于2012年5月获得美国首个无人驾驶车辆许可证。无人驾驶汽车依靠人工智能、视觉计算、雷达、监控装置和全球定位系统协同合作,让电脑可以在没有任何人类主动操作下自动安全地操作机动车辆。同样国内的一些互联网公司也积极跟进, 2014年百度已经启动无人驾驶汽车计划,2016年5月16日百度宣布与安徽省芜湖市联手打造首个全无人车运营区域,这也是国内第一个无人车运营区域。根据现有已经发布的各种声明,那些配备了人工智能且已经行驶了几百万英里的无人驾驶汽车能够让这些车自主地作决策。这些决策具有伦理和社会意义,尤其是无人驾驶汽车可能会造成严重伤害时。本文以无人驾驶汽车为例来初步探讨人工智能机器所产生的伦理问题。
一、人工智能机器带来的伦理问题
面对无人驾驶汽车的飞速发展,对它的争论一直就没有停过。支持者认为车辆无人驾驶技术的优点是使出行更安全(因为去除了人为失误因素),缓解交通压力,并减少环境污染。一些喜欢驾车的人认为,驾驶会让人感到轻松惬意,无人驾驶技术还得解决许多问题。无人驾驶技术永远是将保护车辆和车内人员作为第一要务。而一个驾驶员则可能宁愿牺牲自己的车来保护他人。这些问题涉及到无人驾驶的伦理选择、伦理风险等问题。在现实社会中,无人驾驶汽车和其他配备人工智能机器的广泛应用带来了一系列伦理问题。
是否应该赋予机器伦理地位一直困扰着人工智能的伦理研究。机器人是纯粹的机器,还是具有应有的伦理地位?它们是被看作“物”,还是应该被加入到之前被排除在外的诸如奴隶、外国人和动物等之列?伦理主体只属于人类?或者机器能被视为伦理主体吗?有“机器伦理”吗?智能机器只能被看作工具吗?它们的伦理地位是实实在在的吗?以往的观点往往伴随着一种常识,至少当人们被问到机器人是否具有伦理地位,大多数倾向于消极甚至否定的回答。然而,与机器人(有时是计算机)互动的人们同时经常以另外的方式提出建议。他们把机器人不是看作“物”或“纯粹的机器”,而是比这些“更多”。
人工智能机器伦理地位争论的核心和出发点是关于伦理主体两个根本不同理念之间的对立,反过来似乎也产生了对人工伦理主体概念完全不同的预期。这就是各自不同的所謂标准观点 〔1 〕和实用主义观点 〔2 〕。在某种程度上这两个不同的变体可能有理由去争论这些真正的冲突。然而,争论的出发点是这两种伦理主体观点的一般概念首先是冲突的,而且这也为作出人工智能机器伦理地位不同的结论留下了空间。
人工智能机器伦理地位的标准观点认为,人类伦理主体需要满足特定的条件,如理性、自由意志或自治、非凡的意识。而实用主义的观点认为,对人工智能机器而言只需要存在某些行为和反应就可以。有人可能会说,实用主义的观点只需要模拟或展现行为的全部或部分标准,而标准的观点实际上需要全部标准。
黛博拉·约翰逊(Johnson, D.)就是机器伦理标准观点的主要支持者之一。她认为,人工智能机器E要成为伦理主体必须具备下列条件:(1)E能够以自己的身体引起物理事件;(2)E有一个内在的规定I,它组成了自己的欲望、信仰和其他有意图的规定,这些规定共同组成了E以某种方式(理性和意识)行动的原因;(3)规定I是导致第一个条件的直接原因;(4)条件(1)中的物理事件对伦理存在重要性的影响。当计算机系统运转时,它们的行为对表达世界其他方面产生影响,这些表达效果有害或有益。〔3 〕 这些条件中(1)也可能是(2)保证E是一个主体。一般来说,(2)和(3)往往被我们赋予人类伦理主体的存在。条件(4)则确保一个特定情况的行为是伦理上相关的,这是一个主体成为伦理主体的关键。然而,没有关于人工智能机器伦理地位这方面的进一步争论。约翰逊通过描述主体是如何把行为和存在区分来总结这个定位:“一切行为(人类和非人类;自愿和非自愿)都可以用其原因来解释,但只有行动能被解释为一系列内部心理状态,我们才能解释为什么一个主体的行动总是关乎他们的信仰、欲望和其他有意图的规定。” 〔3 〕 约翰逊反对人工智能机器具有伦理地位的主要理由直接取决于条件(2)和(3)的观点。人工智能机器不能成为伦理主体,因为它们缺乏可能导致它们行为发生的内在心理规定。尽管它们可能从外部角度提醒人类行为表现出“行动”的感觉,但这些行为由于缺乏这些内在的心理规定而无法具有伦理品质。
人工智能机器伦理地位实用主义观点的代表人物是弗洛里迪(Floridi)和桑德斯(Sanders)。他们想要重新考虑像意识这样的标准,并主张一个“非意图的伦理” 〔4 〕。他们的出发点是当我们根据所谓的典型实例推断一般的标准时,我们所选择的抽象程度取决于我们所选择的抽象层次。适用于标准观点的抽象级别是非常低的,保持接近成年人标准,不以人类为中心对伦理主体可能会实现,同时观察与伦理主体基本结构特点相关的一致性和相似性。弗罗里迪和桑德斯提出人工智能机器伦理地位的抽象层次。在这个层次中,人工智能机器E的伦理标准:(1)交互性,E与环境互动;(2)独立性,E有能力改变自身和它的相互作用,而不受外部条件的直接影响;(3)适应性,E可能会基于(1)的结果而改变在(2)中的实现方式 〔4 〕。虽然条件(1)与标准观点大致对应,但条件(2)看似与标准观点中内部精神状态的需要有很大差异。条件(3)也是不同的,两者都较弱,因为不要求E的相互作用直接由条件(2)引起,通过添加条件(1)和(2)的联合响应,从而使得条件变得更强。弗洛里迪和桑德斯认为,“随着伦理主体概念的修正,人工智能机器的伦理地位概念规避了约翰逊所说的争论” 〔4 〕。 然而,正如前面提到的,人工智能机器伦理地位争论的前景要比这两种对立的伦理主体哲学概念的应用更为复杂。琳达·约翰逊(Johansson, L.)提出人工智能机器具有伦理地位的标准,其中包括与标准观点所要求的状态相似的精神状态,但同时也建议应该从实用主义的角度来理解这些标准。琳达·约翰逊理解的人工智能机器需要具备辨别伦理相关信息的能力(如动机、后果等),基于这些信息作出伦理判断,并根据这些判断发起行动。虽然约翰逊承认这些条件需要意识,但是她主张一个不可知论者的身心问题,因此提出了一个“虚拟”方法:凡表现出来的功能,通常存在相關性能力的展示。因此,虽然人工智能机器的伦理地位不是严格(概念上或本体论上)由这些功能决定,但它们在实践中(从认识论上来说)是由它们的存在所标示。面对一台表现得像伦理主体的机器,我们应该得出结论:它是人工伦理主体,这就是我们能得到的所有理由。
还有一种观点认为,人工智能机器的伦理地位可能会被摧毁。除了基于标准观点的论据之外,琳达·约翰逊还认为,由人工智能机器设计的特征会侵蚀一个智能的伦理体,即使它可能具有意图性的特征或表现出内在精神状态的迹象。“无论将来的行为如何独立自治和交互式计算机系统,它们都是人类行为(直接或间接)、人类社会制度和人类决策的产物……计算机系统和其他人工物都有意向,意向嵌入他们设计师的有意识行为。人工物的意向性与它们的功能密切相关。” 〔3 〕
弗朗西丝·S.格劳森斯基(Frances S. Grodzinsky)和同事运用类似的观点,认为没有任何机器可以基于标准观点和实用主义观点声称这种独立性的程度。无论故意状态或实用主义的对应物,可能归因于机器,这些条件都不能与人类创造者完全分离开来。“如果有一个抽象层次的低等人工智能机器的伦理地位,可以将主体行为明确归因于它的设计者,这样的主体则不是一个伦理主体。因此,主体本质上变成了它的设计者的延伸。显然,该主体有可能远离最初设计,并与设计人员走得很远。在这种情况下,设计、实现和部署软件程序之后的某个时候,可能没有一个抽象级别,原始设计者和实现者最初意图是可以被识别的。这种情况似乎满足了弗洛里迪和桑德斯所说的伦理主体的条件。然而,正如我们在上面所说的那样,这种情况并不能削弱设计者的责任,在这种情况下人工智能机器的伦理地位受到了它的设计者的限制。” 〔5 〕
如果这个论点有效,那么它实际上似乎对任何为人工智能机器提供空间的主张都同样有力,不管它与标准或实用主义观点有什么联系。这个论点的核心似乎并不是仅仅存在于这个或那个特性(例如意图或独立性),而是关于这个特殊主体特征的属性。因此,即使我们接受这样的概念机器是有意图的状态,或者功能取代了这些意图状态,这些机器将属于它的设计者(或用户)而不是机器。同时,也不确定琳达·约翰逊的认知转折在多大程度上也适用于此。她声称,只要人工智能机器相关特征的属性与典型案例相同,我们就应该以务实方式假定人工智能机器伦理地位的存在。
被视为典型自主性机器的无人驾驶汽车是一种学习机器。它们依据程序收集处理信息并得出结论,并在没有人的干预和指导的情况下相应地改变它们自己的行为方式。因此,这样一辆汽车可能被设置了一个程序,其中包含不超过速度限制的指令。只知道其他汽车不能超过这些速度限制,从而得出结论它也应该不超过速度限制。比如,导致乘客死亡的特斯拉汽车在行驶过程中就是超速9英里。考虑到这些车辆可能造成伤害,研究者认为无人驾驶汽车需要作出“错误的”和“正确的”选择。换句话说,计算机应该被制造成或成为“明确的伦理推理者”。正如苏珊·李·安德森和迈克尔·安德森(Susan Leigh Anderson and Michael Anderson)所指出的,“在理想的情况下,我们希望能够信任自主机器自行作出正确的伦理决策,这就要求我们为机器创建一个伦理准则框架。” 〔6 〕1许多人工智能研究人员似乎认为,如果这些机器能够自行作出成千上万的信息驱动和认知决策——何时减速,何时停止,何时避让,等等——它们也应该能够作出伦理选择。这种假设对那些认为事实问题和伦理问题之间没有本质区别的人来说是特别合理的。因为他们认为这两者都可以视为受到理性驱动的心理过程。正像约翰·斯图亚特·密尔曾指出的,“我们的伦理能力是我们的理性的一个分支” 〔7 〕330。总之,能够自行作出决策的无人驾驶汽车以及其他配备了人工智能的机器似乎都需要伦理指导。
二、人工智能机器伦理选择的方法论困境
无人驾驶汽车和其他类似的人工智能机器作出伦理选择时,需要遵循人类伦理偏好。但人工智能机器伦理选择的两种主要方法(自上而下与自上而下)使得无人驾驶汽车中的“电车难题”面临新的困境。机器伦理倡导者主张可以通过伦理准则嵌入使人工智能机器成为伦理能动者。为此,他们致力于探讨将伦理准则嵌入人工智能机器之中,使其通过成长性的学习培育出伦理判断能力的可能性。自上而下和自下而上将伦理准则嵌入人工智能机器被 认为是使无人驾驶汽车或其他人工智能机器自行作出伦理选择的主要途径。但是这两种途径存在缺陷。
(一)自上而下将伦理准则嵌入人工智能机器的缺陷。自上而下方法,即在人工智能机器中预设一套可操作的伦理准则,如自动驾驶汽车应将撞车对他人造成的伤害降到最低。在自上而下方法中,伦理准则是被编程到汽车的指导系统中。这些伦理准则可能是阿西莫夫的“机器人三定律”、《摩西十诫》及其他宗教戒律或者一般的伦理准则。比如康德的绝对命令、功利主义或结果论的某种形式。主要不是一个程序员指示汽车在特定条件下以最正确的方式行驶,汽车能够根据植入其人工智能程序的伦理准则作出伦理选择。
自上而下方法的批评者(以及一些支持者)认识到,坚持任何特定的伦理准则所固有的困难。因为在某种程度上它们其中任何一个意图都会导致在伦理上不可接受的行动和结果。在无人驾驶汽车方面,人们对“电车难题”的应用给予了极大关注。就像许多学者那样,媒体经常把它们作为一种讨论手头问题的框架。两个常见的例子:(1)本杰明·康斯坦特(Benjamin Constant)指出,绝对命令将迫使某人告诉杀人犯他的猎物位置,因为在任何情况下都禁止说谎 〔8 〕1774-1799。(2)如果遵循结果论就会得出结论认为作为一种减少造成不可避免损失的方法,一辆汽车最好选择撞向相邻车道内两辆车中比较便宜的那辆汽车,这显然引起人们的担忧 〔9 〕58-65。 事实上,这些(和其他)伦理准则已经发展出试图解决这些“缺陷”的变形体。尽管如此,在一些伦理学说中仍有一些重要的辩论,突出在特定哲学体系中所面临的困境,这些哲学体系是为具有人工智能机器提供伦理指导的系统。例如,对于 “效用”是否可以量化以及如何被量化,存在众所周知的重大分歧,边沁和穆勒就对是否有不同水平的效用(快乐的“高”和“低”)存在分歧。结果论者继续面临这些挑战。例如,估计长期后果和决定应该为谁考虑后果等。电车难题的大部分思想实验认为,每一个生命都是生命,因此杀死五个人显然比杀死一个人更糟糕。然而,人们并没有像对待幼儿园里的孩子那样,对身患绝症的老年公民给予同样的伦理价值,也没有将特蕾莎修女视为罪犯。
没有必要在这里反复讨论各种伦理学说之间的重大分歧。这就足以表明,考虑到这些差异无论是使用一种或结合这些伦理准则,人们都很难设计出一种能够自行作出伦理选择的机器。像“电车难题”并非一无是处,像其他心理实验一样它们可以作为一个具有挑衅性的对话起动器。它们可以被用来作为一种有效的教学工具。例如用于说明结果论和义务论的区别。然而,它们对人工智能机器的选择模式来说尤其会适得其反。“电车难题”是非常做作的,它们通常只留下两个选择,而且这两个选项和其他条件都不能被修改。例如选择的框架要么是杀死一个孩子,要么造成毁灭性灾难。为了进一步简化这个场景,它假设杀死两个人“显然”比杀死一个人更糟糕,这无视大多数人对不同人的生命的不同看法。比如将一个95岁的晚期癌症患者与25岁的退伍老兵或者孩子相比较。詹姆斯·奥康纳补充道:“电车理论的错误之处在于它被含蓄地设计但却带有明显的教条主义,它规定救援者不是处在一个位置,或者没有这种倾向,或者真的需要帮助。只有通过选择一个或另一个斯巴达式的选择范围,所有的选择都在伦理上令人厌恶,电车哲学家已经预先设定好了介入场景方案。由此可见,电车方法是以一种高度贫困的人性观为前提的。” 〔10 〕芭芭拉·弗里德(Barbara Fried)指出,“电车学的‘知识垄断’鼓励一些哲学家把更多的注意力放在‘边缘性的古怪案例’上,而不是现实生活中发生意外伤害风险的大多数案例。” 〔11 〕 法学界一个重要的格言:“艰难的案件会导致更糟糕的法律”,由于特别极端情况而引起注意的案件往往是由某些法律或规则而导致的,而这些法律或规则只适用于贫乏规则。因此,“定时炸弹”的情景被用来证明功利主义的伦理规范是对酷刑的辩护 〔12 〕211-228。
但是有人可能会问,“如果人类可以做到这一点,为什么智能机器不能呢?”作为回应,人们首先注意到人类能够应付细微差别和处理模糊的决策,但计算机程序员发现这样的决策特别费力。此外,当一个人认为可以基于这个或那个哲学基础而作出伦理选择时,实际上人类首先从抚养他们的人那里获得他们自己的伦理价值观,然后,当他们接触到来自新的群体、文化和亚文化的各种投入并逐步发展他们自己的个人伦理组合时,修改他们自己的这些价值观。此外,这些价值受到特殊的社会原则影响,这些社会原则并不局限于任何一个伦理准则。简而言之,自上而下的方法是非常难以置信的。
(二)自下而上将伦理准则嵌入人工智能机器的缺陷。自下而上方法,让人工智能机器运用反向强化学习等机器学习技术研究人类相关现实和模拟场景中的行为,使其树立与人类相似的价值观并付诸行动,如让自动驾驶汽车研究人类的驾驶行为。在机器伦理学的第二种方法即自下而上的方法中,机器将学习如何通过观察人类在实际情况下的行为,而不是被教授任何形式的规则或具有任何特定的伦理准则来作出伦理选择。这种方法已经被应用于无人驾驶汽车学习的非伦理方面。例如,卡内基梅隆大学研究人员发明早期自动驾驶汽车,能够经过2-3分钟人类驾驶员的培训之后在高速公路上行驶。其普遍化能力允许在四车道的道路上行驶,尽管它只是在一条或两车道的道路上被训练的 〔13 〕。机器学习也被一些研究人员用来改善和提高汽车的行人检测能力 〔14 〕。此外,来自英伟达公司的一个团队最近展示一辆无人驾驶汽车,它使用“端到端”的机器学习,即在观察了72小时的人类驾驶数据之后,它就可以自主驾驶。〔13 〕然而,将这些视为机器学习伦理行为的先例,就假定学习红绿灯的不同反应没有显著的差异,并学习理解、欣赏伦理命令,以便必须要特别注意不要撞到与汽车在同一车道行驶的骑自行车的人,更不要说不去干扰或故意伤害骑车的人 〔15 〕88-114。然而,汽車被要求处理的各种伦理问题是非常罕见的。比如,在不可避免的碰撞事故中谁能杀死或伤害谁这些问题。根据2013年美国交通部的数据,每行驶1亿英里只导致了77人受伤和1.09人死亡 〔16 〕。而且,每一个这样的挑战情况都与下一个不同:有时是一只小猫导致事故,有时是一辆校车导致的事故,等等。无人驾驶汽车必须以这种方式经历几个生命周期跟随一个人去学习伦理。
可见,这是统计学上机器学习程序的一个广泛问题,以及更广泛的统计推断。当从某一概率分布中抽取样本时就会出现异常事件,这一结果是很难预测的,有一些反应是正常的。首先,根据定义这些是“异常值”,其罕见出现的频率是有边界的。第二,人类司机面临同样的问题,通常以不可预测的方式作出反应,有时会导致所谓的“人为错误”。第三,先进的机器学习系统从以往的经验作出概括,并通常涵盖前所未有的情况。对机器学习来说,这仍然是一个具有挑战性的研究课题,但它并不是这个领域唯一的研究课题。大多数时候人工智能机器可以与法律手段保持一致。在其他情况下,它们可以被要求遵守它们用户的伦理偏好。当然,这两种伦理的指导方式将揭示无人驾驶汽车百万英里下的情况(每一个都是独特的和往往难以预测的)下,总是会有一些无法预见的事件和程序会发生。例如,当一个金属气球正好飞到无人驾驶汽车的前面时,把它搞混了。在这些情况下,最好的选择是随机地决定哪一方会受到伤害(包括无过错保险)。如果这些情况是重复的,法律的指导原则或伦理机器人将需要被人类更新。
〔关键词〕 人工智能机器,伦理准则,无人驾驶汽车,伦理选择方法
〔中图分类号〕B829 〔文献标识码〕A 〔文章编号〕1004-4175(2018)03-0038-08
无人驾驶汽车又称自动驾驶汽车、电脑驾驶汽车或轮式移动机器人,是一种通过电脑系统实现无人驾驶的智能汽车。无人驾驶汽车技术的研发已经有数十年的历史,21世纪初呈现出接近实用化的趋势。谷歌无人驾驶汽车于2012年5月获得美国首个无人驾驶车辆许可证。无人驾驶汽车依靠人工智能、视觉计算、雷达、监控装置和全球定位系统协同合作,让电脑可以在没有任何人类主动操作下自动安全地操作机动车辆。同样国内的一些互联网公司也积极跟进, 2014年百度已经启动无人驾驶汽车计划,2016年5月16日百度宣布与安徽省芜湖市联手打造首个全无人车运营区域,这也是国内第一个无人车运营区域。根据现有已经发布的各种声明,那些配备了人工智能且已经行驶了几百万英里的无人驾驶汽车能够让这些车自主地作决策。这些决策具有伦理和社会意义,尤其是无人驾驶汽车可能会造成严重伤害时。本文以无人驾驶汽车为例来初步探讨人工智能机器所产生的伦理问题。
一、人工智能机器带来的伦理问题
面对无人驾驶汽车的飞速发展,对它的争论一直就没有停过。支持者认为车辆无人驾驶技术的优点是使出行更安全(因为去除了人为失误因素),缓解交通压力,并减少环境污染。一些喜欢驾车的人认为,驾驶会让人感到轻松惬意,无人驾驶技术还得解决许多问题。无人驾驶技术永远是将保护车辆和车内人员作为第一要务。而一个驾驶员则可能宁愿牺牲自己的车来保护他人。这些问题涉及到无人驾驶的伦理选择、伦理风险等问题。在现实社会中,无人驾驶汽车和其他配备人工智能机器的广泛应用带来了一系列伦理问题。
是否应该赋予机器伦理地位一直困扰着人工智能的伦理研究。机器人是纯粹的机器,还是具有应有的伦理地位?它们是被看作“物”,还是应该被加入到之前被排除在外的诸如奴隶、外国人和动物等之列?伦理主体只属于人类?或者机器能被视为伦理主体吗?有“机器伦理”吗?智能机器只能被看作工具吗?它们的伦理地位是实实在在的吗?以往的观点往往伴随着一种常识,至少当人们被问到机器人是否具有伦理地位,大多数倾向于消极甚至否定的回答。然而,与机器人(有时是计算机)互动的人们同时经常以另外的方式提出建议。他们把机器人不是看作“物”或“纯粹的机器”,而是比这些“更多”。
人工智能机器伦理地位争论的核心和出发点是关于伦理主体两个根本不同理念之间的对立,反过来似乎也产生了对人工伦理主体概念完全不同的预期。这就是各自不同的所謂标准观点 〔1 〕和实用主义观点 〔2 〕。在某种程度上这两个不同的变体可能有理由去争论这些真正的冲突。然而,争论的出发点是这两种伦理主体观点的一般概念首先是冲突的,而且这也为作出人工智能机器伦理地位不同的结论留下了空间。
人工智能机器伦理地位的标准观点认为,人类伦理主体需要满足特定的条件,如理性、自由意志或自治、非凡的意识。而实用主义的观点认为,对人工智能机器而言只需要存在某些行为和反应就可以。有人可能会说,实用主义的观点只需要模拟或展现行为的全部或部分标准,而标准的观点实际上需要全部标准。
黛博拉·约翰逊(Johnson, D.)就是机器伦理标准观点的主要支持者之一。她认为,人工智能机器E要成为伦理主体必须具备下列条件:(1)E能够以自己的身体引起物理事件;(2)E有一个内在的规定I,它组成了自己的欲望、信仰和其他有意图的规定,这些规定共同组成了E以某种方式(理性和意识)行动的原因;(3)规定I是导致第一个条件的直接原因;(4)条件(1)中的物理事件对伦理存在重要性的影响。当计算机系统运转时,它们的行为对表达世界其他方面产生影响,这些表达效果有害或有益。〔3 〕 这些条件中(1)也可能是(2)保证E是一个主体。一般来说,(2)和(3)往往被我们赋予人类伦理主体的存在。条件(4)则确保一个特定情况的行为是伦理上相关的,这是一个主体成为伦理主体的关键。然而,没有关于人工智能机器伦理地位这方面的进一步争论。约翰逊通过描述主体是如何把行为和存在区分来总结这个定位:“一切行为(人类和非人类;自愿和非自愿)都可以用其原因来解释,但只有行动能被解释为一系列内部心理状态,我们才能解释为什么一个主体的行动总是关乎他们的信仰、欲望和其他有意图的规定。” 〔3 〕 约翰逊反对人工智能机器具有伦理地位的主要理由直接取决于条件(2)和(3)的观点。人工智能机器不能成为伦理主体,因为它们缺乏可能导致它们行为发生的内在心理规定。尽管它们可能从外部角度提醒人类行为表现出“行动”的感觉,但这些行为由于缺乏这些内在的心理规定而无法具有伦理品质。
人工智能机器伦理地位实用主义观点的代表人物是弗洛里迪(Floridi)和桑德斯(Sanders)。他们想要重新考虑像意识这样的标准,并主张一个“非意图的伦理” 〔4 〕。他们的出发点是当我们根据所谓的典型实例推断一般的标准时,我们所选择的抽象程度取决于我们所选择的抽象层次。适用于标准观点的抽象级别是非常低的,保持接近成年人标准,不以人类为中心对伦理主体可能会实现,同时观察与伦理主体基本结构特点相关的一致性和相似性。弗罗里迪和桑德斯提出人工智能机器伦理地位的抽象层次。在这个层次中,人工智能机器E的伦理标准:(1)交互性,E与环境互动;(2)独立性,E有能力改变自身和它的相互作用,而不受外部条件的直接影响;(3)适应性,E可能会基于(1)的结果而改变在(2)中的实现方式 〔4 〕。虽然条件(1)与标准观点大致对应,但条件(2)看似与标准观点中内部精神状态的需要有很大差异。条件(3)也是不同的,两者都较弱,因为不要求E的相互作用直接由条件(2)引起,通过添加条件(1)和(2)的联合响应,从而使得条件变得更强。弗洛里迪和桑德斯认为,“随着伦理主体概念的修正,人工智能机器的伦理地位概念规避了约翰逊所说的争论” 〔4 〕。 然而,正如前面提到的,人工智能机器伦理地位争论的前景要比这两种对立的伦理主体哲学概念的应用更为复杂。琳达·约翰逊(Johansson, L.)提出人工智能机器具有伦理地位的标准,其中包括与标准观点所要求的状态相似的精神状态,但同时也建议应该从实用主义的角度来理解这些标准。琳达·约翰逊理解的人工智能机器需要具备辨别伦理相关信息的能力(如动机、后果等),基于这些信息作出伦理判断,并根据这些判断发起行动。虽然约翰逊承认这些条件需要意识,但是她主张一个不可知论者的身心问题,因此提出了一个“虚拟”方法:凡表现出来的功能,通常存在相關性能力的展示。因此,虽然人工智能机器的伦理地位不是严格(概念上或本体论上)由这些功能决定,但它们在实践中(从认识论上来说)是由它们的存在所标示。面对一台表现得像伦理主体的机器,我们应该得出结论:它是人工伦理主体,这就是我们能得到的所有理由。
还有一种观点认为,人工智能机器的伦理地位可能会被摧毁。除了基于标准观点的论据之外,琳达·约翰逊还认为,由人工智能机器设计的特征会侵蚀一个智能的伦理体,即使它可能具有意图性的特征或表现出内在精神状态的迹象。“无论将来的行为如何独立自治和交互式计算机系统,它们都是人类行为(直接或间接)、人类社会制度和人类决策的产物……计算机系统和其他人工物都有意向,意向嵌入他们设计师的有意识行为。人工物的意向性与它们的功能密切相关。” 〔3 〕
弗朗西丝·S.格劳森斯基(Frances S. Grodzinsky)和同事运用类似的观点,认为没有任何机器可以基于标准观点和实用主义观点声称这种独立性的程度。无论故意状态或实用主义的对应物,可能归因于机器,这些条件都不能与人类创造者完全分离开来。“如果有一个抽象层次的低等人工智能机器的伦理地位,可以将主体行为明确归因于它的设计者,这样的主体则不是一个伦理主体。因此,主体本质上变成了它的设计者的延伸。显然,该主体有可能远离最初设计,并与设计人员走得很远。在这种情况下,设计、实现和部署软件程序之后的某个时候,可能没有一个抽象级别,原始设计者和实现者最初意图是可以被识别的。这种情况似乎满足了弗洛里迪和桑德斯所说的伦理主体的条件。然而,正如我们在上面所说的那样,这种情况并不能削弱设计者的责任,在这种情况下人工智能机器的伦理地位受到了它的设计者的限制。” 〔5 〕
如果这个论点有效,那么它实际上似乎对任何为人工智能机器提供空间的主张都同样有力,不管它与标准或实用主义观点有什么联系。这个论点的核心似乎并不是仅仅存在于这个或那个特性(例如意图或独立性),而是关于这个特殊主体特征的属性。因此,即使我们接受这样的概念机器是有意图的状态,或者功能取代了这些意图状态,这些机器将属于它的设计者(或用户)而不是机器。同时,也不确定琳达·约翰逊的认知转折在多大程度上也适用于此。她声称,只要人工智能机器相关特征的属性与典型案例相同,我们就应该以务实方式假定人工智能机器伦理地位的存在。
被视为典型自主性机器的无人驾驶汽车是一种学习机器。它们依据程序收集处理信息并得出结论,并在没有人的干预和指导的情况下相应地改变它们自己的行为方式。因此,这样一辆汽车可能被设置了一个程序,其中包含不超过速度限制的指令。只知道其他汽车不能超过这些速度限制,从而得出结论它也应该不超过速度限制。比如,导致乘客死亡的特斯拉汽车在行驶过程中就是超速9英里。考虑到这些车辆可能造成伤害,研究者认为无人驾驶汽车需要作出“错误的”和“正确的”选择。换句话说,计算机应该被制造成或成为“明确的伦理推理者”。正如苏珊·李·安德森和迈克尔·安德森(Susan Leigh Anderson and Michael Anderson)所指出的,“在理想的情况下,我们希望能够信任自主机器自行作出正确的伦理决策,这就要求我们为机器创建一个伦理准则框架。” 〔6 〕1许多人工智能研究人员似乎认为,如果这些机器能够自行作出成千上万的信息驱动和认知决策——何时减速,何时停止,何时避让,等等——它们也应该能够作出伦理选择。这种假设对那些认为事实问题和伦理问题之间没有本质区别的人来说是特别合理的。因为他们认为这两者都可以视为受到理性驱动的心理过程。正像约翰·斯图亚特·密尔曾指出的,“我们的伦理能力是我们的理性的一个分支” 〔7 〕330。总之,能够自行作出决策的无人驾驶汽车以及其他配备了人工智能的机器似乎都需要伦理指导。
二、人工智能机器伦理选择的方法论困境
无人驾驶汽车和其他类似的人工智能机器作出伦理选择时,需要遵循人类伦理偏好。但人工智能机器伦理选择的两种主要方法(自上而下与自上而下)使得无人驾驶汽车中的“电车难题”面临新的困境。机器伦理倡导者主张可以通过伦理准则嵌入使人工智能机器成为伦理能动者。为此,他们致力于探讨将伦理准则嵌入人工智能机器之中,使其通过成长性的学习培育出伦理判断能力的可能性。自上而下和自下而上将伦理准则嵌入人工智能机器被 认为是使无人驾驶汽车或其他人工智能机器自行作出伦理选择的主要途径。但是这两种途径存在缺陷。
(一)自上而下将伦理准则嵌入人工智能机器的缺陷。自上而下方法,即在人工智能机器中预设一套可操作的伦理准则,如自动驾驶汽车应将撞车对他人造成的伤害降到最低。在自上而下方法中,伦理准则是被编程到汽车的指导系统中。这些伦理准则可能是阿西莫夫的“机器人三定律”、《摩西十诫》及其他宗教戒律或者一般的伦理准则。比如康德的绝对命令、功利主义或结果论的某种形式。主要不是一个程序员指示汽车在特定条件下以最正确的方式行驶,汽车能够根据植入其人工智能程序的伦理准则作出伦理选择。
自上而下方法的批评者(以及一些支持者)认识到,坚持任何特定的伦理准则所固有的困难。因为在某种程度上它们其中任何一个意图都会导致在伦理上不可接受的行动和结果。在无人驾驶汽车方面,人们对“电车难题”的应用给予了极大关注。就像许多学者那样,媒体经常把它们作为一种讨论手头问题的框架。两个常见的例子:(1)本杰明·康斯坦特(Benjamin Constant)指出,绝对命令将迫使某人告诉杀人犯他的猎物位置,因为在任何情况下都禁止说谎 〔8 〕1774-1799。(2)如果遵循结果论就会得出结论认为作为一种减少造成不可避免损失的方法,一辆汽车最好选择撞向相邻车道内两辆车中比较便宜的那辆汽车,这显然引起人们的担忧 〔9 〕58-65。 事实上,这些(和其他)伦理准则已经发展出试图解决这些“缺陷”的变形体。尽管如此,在一些伦理学说中仍有一些重要的辩论,突出在特定哲学体系中所面临的困境,这些哲学体系是为具有人工智能机器提供伦理指导的系统。例如,对于 “效用”是否可以量化以及如何被量化,存在众所周知的重大分歧,边沁和穆勒就对是否有不同水平的效用(快乐的“高”和“低”)存在分歧。结果论者继续面临这些挑战。例如,估计长期后果和决定应该为谁考虑后果等。电车难题的大部分思想实验认为,每一个生命都是生命,因此杀死五个人显然比杀死一个人更糟糕。然而,人们并没有像对待幼儿园里的孩子那样,对身患绝症的老年公民给予同样的伦理价值,也没有将特蕾莎修女视为罪犯。
没有必要在这里反复讨论各种伦理学说之间的重大分歧。这就足以表明,考虑到这些差异无论是使用一种或结合这些伦理准则,人们都很难设计出一种能够自行作出伦理选择的机器。像“电车难题”并非一无是处,像其他心理实验一样它们可以作为一个具有挑衅性的对话起动器。它们可以被用来作为一种有效的教学工具。例如用于说明结果论和义务论的区别。然而,它们对人工智能机器的选择模式来说尤其会适得其反。“电车难题”是非常做作的,它们通常只留下两个选择,而且这两个选项和其他条件都不能被修改。例如选择的框架要么是杀死一个孩子,要么造成毁灭性灾难。为了进一步简化这个场景,它假设杀死两个人“显然”比杀死一个人更糟糕,这无视大多数人对不同人的生命的不同看法。比如将一个95岁的晚期癌症患者与25岁的退伍老兵或者孩子相比较。詹姆斯·奥康纳补充道:“电车理论的错误之处在于它被含蓄地设计但却带有明显的教条主义,它规定救援者不是处在一个位置,或者没有这种倾向,或者真的需要帮助。只有通过选择一个或另一个斯巴达式的选择范围,所有的选择都在伦理上令人厌恶,电车哲学家已经预先设定好了介入场景方案。由此可见,电车方法是以一种高度贫困的人性观为前提的。” 〔10 〕芭芭拉·弗里德(Barbara Fried)指出,“电车学的‘知识垄断’鼓励一些哲学家把更多的注意力放在‘边缘性的古怪案例’上,而不是现实生活中发生意外伤害风险的大多数案例。” 〔11 〕 法学界一个重要的格言:“艰难的案件会导致更糟糕的法律”,由于特别极端情况而引起注意的案件往往是由某些法律或规则而导致的,而这些法律或规则只适用于贫乏规则。因此,“定时炸弹”的情景被用来证明功利主义的伦理规范是对酷刑的辩护 〔12 〕211-228。
但是有人可能会问,“如果人类可以做到这一点,为什么智能机器不能呢?”作为回应,人们首先注意到人类能够应付细微差别和处理模糊的决策,但计算机程序员发现这样的决策特别费力。此外,当一个人认为可以基于这个或那个哲学基础而作出伦理选择时,实际上人类首先从抚养他们的人那里获得他们自己的伦理价值观,然后,当他们接触到来自新的群体、文化和亚文化的各种投入并逐步发展他们自己的个人伦理组合时,修改他们自己的这些价值观。此外,这些价值受到特殊的社会原则影响,这些社会原则并不局限于任何一个伦理准则。简而言之,自上而下的方法是非常难以置信的。
(二)自下而上将伦理准则嵌入人工智能机器的缺陷。自下而上方法,让人工智能机器运用反向强化学习等机器学习技术研究人类相关现实和模拟场景中的行为,使其树立与人类相似的价值观并付诸行动,如让自动驾驶汽车研究人类的驾驶行为。在机器伦理学的第二种方法即自下而上的方法中,机器将学习如何通过观察人类在实际情况下的行为,而不是被教授任何形式的规则或具有任何特定的伦理准则来作出伦理选择。这种方法已经被应用于无人驾驶汽车学习的非伦理方面。例如,卡内基梅隆大学研究人员发明早期自动驾驶汽车,能够经过2-3分钟人类驾驶员的培训之后在高速公路上行驶。其普遍化能力允许在四车道的道路上行驶,尽管它只是在一条或两车道的道路上被训练的 〔13 〕。机器学习也被一些研究人员用来改善和提高汽车的行人检测能力 〔14 〕。此外,来自英伟达公司的一个团队最近展示一辆无人驾驶汽车,它使用“端到端”的机器学习,即在观察了72小时的人类驾驶数据之后,它就可以自主驾驶。〔13 〕然而,将这些视为机器学习伦理行为的先例,就假定学习红绿灯的不同反应没有显著的差异,并学习理解、欣赏伦理命令,以便必须要特别注意不要撞到与汽车在同一车道行驶的骑自行车的人,更不要说不去干扰或故意伤害骑车的人 〔15 〕88-114。然而,汽車被要求处理的各种伦理问题是非常罕见的。比如,在不可避免的碰撞事故中谁能杀死或伤害谁这些问题。根据2013年美国交通部的数据,每行驶1亿英里只导致了77人受伤和1.09人死亡 〔16 〕。而且,每一个这样的挑战情况都与下一个不同:有时是一只小猫导致事故,有时是一辆校车导致的事故,等等。无人驾驶汽车必须以这种方式经历几个生命周期跟随一个人去学习伦理。
可见,这是统计学上机器学习程序的一个广泛问题,以及更广泛的统计推断。当从某一概率分布中抽取样本时就会出现异常事件,这一结果是很难预测的,有一些反应是正常的。首先,根据定义这些是“异常值”,其罕见出现的频率是有边界的。第二,人类司机面临同样的问题,通常以不可预测的方式作出反应,有时会导致所谓的“人为错误”。第三,先进的机器学习系统从以往的经验作出概括,并通常涵盖前所未有的情况。对机器学习来说,这仍然是一个具有挑战性的研究课题,但它并不是这个领域唯一的研究课题。大多数时候人工智能机器可以与法律手段保持一致。在其他情况下,它们可以被要求遵守它们用户的伦理偏好。当然,这两种伦理的指导方式将揭示无人驾驶汽车百万英里下的情况(每一个都是独特的和往往难以预测的)下,总是会有一些无法预见的事件和程序会发生。例如,当一个金属气球正好飞到无人驾驶汽车的前面时,把它搞混了。在这些情况下,最好的选择是随机地决定哪一方会受到伤害(包括无过错保险)。如果这些情况是重复的,法律的指导原则或伦理机器人将需要被人类更新。