我的位置: 上观号 > 上海市法学会 > 文章详情

[加拿大]若瑟兰·麦克卢尔著 朱正宇译|人工智能的可解释性困境与公共理性的法伦理探究

转自:上海市法学会 2025-11-05 08:12:39

鉴于当前机器学习驱动的AI算法在透明性方面的不足以及由此引发的伦理困境,本文深入探讨了AI的可解释性问题,并强调AI可解释性在伦理维度上的重要性。首先,基于罗尔斯的公共理性原则,本文提出了一项法律义务,即对采用AI系统进行自动化决策的组织,应实施严格的可解释性标准。这意味着,当算法决策对个人的福祉、权利或机会产生重要影响时,相关组织应在法律层面承担起解释和证明其合理性的责任,以确保这些决策尊重个体的合法权益,符合公共理性的要求。其次,尽管人类认知能力存在局限,但这并不削弱公共理性的基础。将人类思维方式与人工神经网络进行直接类比的观点,往往陷入原子主义偏见,忽视了人类推理过程易受社会与制度影响的特征。最后,本文认为,相较于单纯依赖技术解决方案,司法、医疗等领域通过社会政策和制度设计缓解AI决策的不可解释性问题,可能更值得信赖且更具伦理正当性。

一、绪论

在当前科技迅猛进步的背景下,公众日益关注机器学习模式的人工智能(AI)在人类生活各领域不断应用所带来的复杂伦理问题。这些挑战正成为困扰研究人员与政策制定者的关键议题。在考虑将传统由人力完成的任务转交给AI算法时,必须审慎权衡其潜在利益与伴随而来的多重伦理风险。例如,算法公平性问题,自动决策系统可能产生对特定群体的系统性偏见;事故责任归属问题,当自动化决策或行为导致伤害时,确定责任主体变得尤为困难;以及,可能存在的隐私权侵权问题,AI算法有可能通过分析那些看似非个人敏感信息的数据点,推断出个体不愿意泄露的私人信息从而侵犯特定个人的隐私权等问题。即便是对AI的能力及其对人类生活影响进行持续审视并持正面观点的人士也认为,AI引领的自动化新浪潮可能会加剧社会中已存在的诸多不平等现象。

另一个备受关注的问题是,基于AI的社会技术系统缺乏透明性而引发的问题。正如上文所述,AI从基于规则的符号编程模式转向机器学习模式显著提高了其在多个程序(尤其是在计算机视觉和自然语言处理等领域)中的成功率。然而,这种提高准确性的代价是不透明的,即常被称为AI黑箱”“可解释性”“透明性理解性的问题(即通常无法解释为何AI系统选择某一选项是正确的决策或行动方案的原因)。因此,过去几年大多国家制定的相关法律法规都将体现可解释性或透明性作为发展和部署AI的基本价值。例如,欧盟的《通用数据保护条例》(GDPR)和加拿大政府的《自动化决策指令》均提到了对自动化决策获取有意义的信息的权利,但目前而言,这种对可解释性的普遍表述仍然是抽象的。如下文所示,AI领域内许多有影响力的学者正在呼吁对其提出可解释性要求。

本文开篇部分首先引入并深入探讨AI可解释性的问题,同时着重强调伦理考量在此议题中的核心地位。其次,文章将转向法律层面的讨论,分析法律应当如何确保自动化决策系统能够对其算法决策进行充分解释,并阐述如何保护那些受其影响的个人的法律权益(这一法律要求可以追溯至罗尔斯关于公共理性的理念)。本文第二部分,作者将阐述尽管当前人类认知领域取得了显著进展,但AI的发展仍未能完全摆脱公共理性的框架约束。在AI伦理不断演进的背景下,本文的核心观点指出,现有的神经网络算法难以全面模拟人类心智的复杂性,盖因算法蕴含一种原子主义偏见,忽略了人类推理和决策过程中不可或缺的社会与制度因素。最终,本文提出,虽然开发具有解释性的AI算法是解决可解释性问题的重要途径,但社会和制度层面的解决方案可能同样举足轻重,甚至在许多情境下,这些非技术性的解决方案可能更为便捷可靠。

二、机器学习的可解释性问题

AI可解释性的问题源于当前主流AI系统的复杂算法架构和运行机制。这一轮AI发展得益于计算能力跃升、大数据涌现以及机器学习算法(特别是神经网络)的不断完善。在符号主义”AI主导时期,可解释性并非难题,因为其核心是基于逻辑规则的程序设计,如专家系统通过推理引擎和知识库完成特定任务。然而,深度学习和神经网络的兴起显著提高了AI系统的复杂性和抽象性,使其决策过程难以理解,暴露了AI可解释性无语问题的关键性与紧迫性。

鉴于哲学家德雷福斯(Dreyfus)等学者敏锐的洞察,借鉴现象学、认知学等科学家所阐述的原因,符号AI的成功主要局限于虚拟和封闭的环境,如游戏和逻辑难题。符号AI的失败和局限性重新点燃了人们对机器如何自我学习以完成不同认知任务的兴趣,并促使人们关注类似大脑工作方式。当前的机器学习模型和人工神经网络源于认知科学和AI中的“连接主义范式。简单来说,人工神经网络在某种程度上受到生物大脑中神经元通过突触激活和连接方式的启发。虽然当前研发了多种机器学习模型的人工神经网络,但最为成功的是计算机视觉、自然语言处理等领域。

AI的不透明性源于从符号AI向机器学习的转变,这种透明度的缺失是为提高算法准确性而作出的权衡。符号AI通过代码逻辑操作实现透明,而机器学习依赖庞大数据集、复杂架构和众多参数。深度神经网络通过多层人工神经元处理数据特征,逐层构建复杂概念。例如,在图像识别中,神经元处理轮廓、颜色等像素信息。这种数据驱动和高度复杂的特性,使机器学习算法的内部机制难以直观理解,从而导致不透明性问题。

在深度人工神经网络中,每个节点(或称为人工神经元)在处理数据时会赋予特定的值或权重。这些值或权重反映了节点对输入数据的响应程度,并且会根据不同数据点之间关系的强度与其他节点相连接。这种复杂的连接路径使得网络能够在庞大的数据集中发现模式和相关性。以计算机视觉算法为例,它能够准确分类在训练阶段未见过的新图像,如自行车图片。这是因为算法通过学习某种像素的聚合与自行车类别之间的关联来识别出自行车的特征。这种基于机器学习的诱导模式识别方法不仅能够进行精确的分类,还能够进行概率性的概括。例如,在翻译任务中,当遇到与“money”“account”“deposit”“teller”等词汇相关联的上下文时,即使没有明确规则指导“bank”在英语中的可能含义,算法也能将法语中的“bank”正确翻译成“banque”而非“rive”。这一过程展示了机器学习算法如何利用上下文信息进行概率性推断,从而得出合理的翻译结果。

此外,机器学习领域引入了反向传播机制,用于反馈与自我修正。当数据从输入层到输出层完成前向传播后,反向传播算法通过误差信号逆向调整隐藏层中节点的权重和连接,逐步优化算法以提高预测精度。

最后,在深度学习模型的构建中,研究者强调算法设计的艺术性与工艺性。程序员需精心调试超参数并监控其对模型性能的影响,数学理论虽提供指导,但直觉和非形式化技艺在精细调整阶段尤为重要。

在探讨神经元网络算法时,一个显著问题是计算机科学家难以为每个输出提供详尽解释。这不是因为代码中缺少逻辑路径来直接连接输入和输出,而是因为其的复杂性使得决策过程不透明。从规范角度看,这个问题尤为突出,因为基于神经网络的AI系统作出的决策或预测往往难以解释。这里的解释指的是对特定输出背后原因的清晰、易懂说明,但由于网络的复杂性和非线性特征,这种解释通常很难实现。

如果AI只是被用于Netfix、亚马逊和Spotify以预测人们可能想看什么、买什么或听什么,那么这种缺乏透明度在道德上不会有问题。但仅举几个例子,AI已经或可能很快被用于以下领域,尤其是在涉及以下关键领域的决策或预测时,无论从法律与伦理的视角来看,这都构成了不容忽视的挑战。医疗领域:用于疾病诊断及制定治疗方案;人力资源管理:在招聘过程中筛选候选人;司法系统:辅助判决或决定保释条件;公共行政:评估个人是否符合社会福利项目的条件;执法部门:指导巡逻部署或通过面部识别技术识别嫌疑人;高等教育招生:评估申请者的学术项目录取资格。

上述有限的清单揭示了当前社会生活关键领域中自动化决策的一瞥。这些决策,无论是由AI系统独立作出,还是在AI辅助下由人类做出,都可能对受影响者的法益与机会产生直接且深远的影响。这一现象凸显了AI可解释性问题的紧迫性,其已成为一个突出的伦理议题。

进而言之,AI的可解释性问题可能加剧其公平性差异,因为当导致决策或预测的理由不为人知时,评估决策是否具有公正性就将变得尤为困难。以一位黑人女性在面试或贷款申请中失败为例,要判断她是否因肤色或性别而遭受歧视,必须深入了解并评估决策背后的理由。然而,如果这些理由无法明确揭示,那么评估某个特定个体在组织中是否受到公平对待的可能性就不复存在。简言之,只有通过对组织决策的事后分析或审计,才能揭示出其决策可能对社会中特定群体产生的不利影响。

这有助于更深入地理解AI的可解释性问题。至少可以区分两个不同的可解释性问题。首先,鉴于涉及的数据和参数数量以及设计深度学习算法所需的隐性知识,研究人员可能难以准确解释某个特定AI算法如何执行其目标功能。这种可解释性缺陷主要源于技术科学层面。尽管AI的设计者可以在很大程度上解释算法为何表现良好,但仍可能存在一些模糊之处。其次,由于训练阶段所需的数据量以及机器学习算法的诱导和模式识别特性,通常无法从系统的内部工作中提取出针对特定输出的一系列理由。换句话说,AI研究人员没有明显的方法将代码的一个片段转换为可以用自然语言表达的一组理由;本文称之为公共理性缺陷。虽然在某些情况下,AI的技术科学可解释性问题可能引发伦理担忧,但公共理性缺陷在伦理层面上更为显著。

三、AI的公共理性缺陷

从规范性的视角审视,当个体的福祉、权利及机会受到自动化决策的波及时,个体无需洞悉算法的内在运作机理;关键在于,该个体有权知晓那些塑造其命运抉择的背后动因。尽管对社会正义这一概念的诸多诠释千差万别,其核心要义却汇聚于一点:确保每个人享有被公平对待的权利,即在无歧视的环境中,被他人或公共与私营机构所接纳。而支撑某一决策的理由与考量,应当通过两种途径展现其公开性:(1)需具备透明度,或易于公众获取;(2)应根植于公共理性的理念之中,或至少与之保持和谐一致。同理,AI的发展亦应被纳入公共理性的权威框架内,以此作为审查与评估自动化决策的基准。这一观点与罗尔斯关于公共理性双重属性的见解相契合。罗尔斯指出,公共理性是民主政体的本质特征,它反映了公民作为平等参与者的理性思考。作为一种推理模式,公共理性具有规范性,因为它蕴含了正确性的准则辩护的准则。超越程序与流程的范畴,公共理性还拥有一个实质性的维度:其宗旨在于追求公共利益”——更精确地说,是关注宪法的基石基本正义议题。在审议过程中,公民与立法者所提出的理由或辩护,须源自政治正义的观念体系。当公民能够基于其合理的善观念认同某一正义理念时,该理念便具备了政治性。而当理由能够经受住有限普遍性的检验时,它们在实质上便成了公共财富:原则上,这些理由能获得政治共同体中所有成员的接纳或认可,则为合法,前提是这些成员认识到,在合理多元主义的背景下,支撑基本公共规范与制度的正义原则不应仅仅建立在个人善观念之上。

不符合公共理性的标准。尽管公共理性理论并非解释AI可解释性问题的唯一伦理视角,但它无疑是一种强有力的立场。该理论为主张对可能对公民的福祉、权利及机会构成潜在负面影响的决策进行审查与评估提供了坚实的理由基础。因此,将AI纳入公共理性的范畴显得尤为重要,因为不透明的自动化决策与民主合法性的基本原则存在根本冲突。那些旨在削减人们福祉、限制自由或剥夺机会的决策背后的理由,必须公开透明,以便接受公众的审视与批评。此外,这些决策还可能存在不公平之处,即它们可能与健全的政治正义观念背道而驰。

因此,本文认为将公共理性标准应用于基于AI的决策是充分且必要的。在本文的后续部分,笔者将假设AI的公共理性缺陷构成了一个严重的道德问题,这提供了理由,即只有在相关组织能够满足公共理性要求的情况下,将决策委托给AI系统才是合法的。换言之,这意味着对AI的健全道德和法律监管必须包括前文所说的强可解释性要求。由于组织应该能够证明其决策的合理性,而这种合理性以解释决策的能力为前提,因此强可解释性要求是有充分理据的。接下来本文将讨论对强可解释性要求最广泛和表面上最令人信服的反驳:即来自人类推理局限性的论点。在论证这一反驳意见为何不成立后,本文将反思强可解释性要求的实践意义。

四、思维与算法:人类推理的局限性

将公共理性理论应用于AI并提出可解释性要求的理由非常简单。很难想象AI爱好者会认为,复杂的机器学习算法是黑匣子这一事实不会构成重大的伦理、政治和法律问题。标准答案并非认为不透明的决策与公共理性标准不矛盾,而是认为深度神经网络与人类大脑/思维一样缺乏透明度,这就是所谓的人类推理局限性的论点。无论是人类还是机器的决策都缺乏透明度。认知科学、社会心理学和行为经济学的研究表明,现实中的人类远非理性选择理论家所想象的那样理性。卡尼曼在《思考的快与慢》中指出,人类在形成信念和做决策时,往往依赖于系统1”的认知过程,这一过程快速、无意识且直观。而系统2”则负责理性思考,运作较慢且费力。从这个角度来看,理性是一个花哨的术语,用来描述通过系统1作出决定后编造故事的能力;换句话说,动机推理可能是人类推理的主要模式。那些可能被视为对理性持失败主义态度的人进一步指出,人类的一般认知(系统12)普遍受到认知偏见和噪声的侵蚀,这些偏见和噪声阻碍了自己和他人的理性思考。认知偏见不仅在无意识的信念和判断形成中发挥作用,而且在人们认为其得出的结论是基于证据的、合乎逻辑的时候也会发挥作用。偏见是导致系统偏差的不合理判断标准,而噪声是指导致分散和不可预测判断的无关因素,例如天气、一天中的时间或昨天的体育比赛结果。偏见和噪声都是人类错误的来源。

因此,AI的支持者普遍指出,人类认知同样存在不透明、脆弱和易错的特性。他们合理的神经质疑,在可解释性和公共理由的要求上,人类大脑与深度人工网络之间有哪些相关且重要的区别。将人类思维与算法类比的观点由来已久,并且具有重要意义。艾伦·图灵(Alan Turing)在其经典论文《计算机器与智能》中就曾提出这样的论点:

对于上述论点的简要回应,尽管任何机器的能力均存在固有的局限性,但尚无任何确实的证据表明人类智力不存在类似的限制。本文认为,这种观点不应被轻易否定……人们自身在面对复杂问题时也时常犯错,这为接受机器可能出错的观点提供了合理的心理基础。因此,对于机器在执行任务过程中出现错误的证据,应当持开放态度,这不仅是对技术发展客观性的尊重,也是对人类认知局限性的一种反思。

图灵奖共同获得者杰夫·辛顿(Geof Hinton)最近提出了这一关于人类思维局限性的论点。对于辛顿来说,鉴于人类推理者和人工神经网络都不是透明的,AI不需要比人类解释得更多。在一次采访中,辛顿认为,如果监管机构坚持要求你解释你的AI系统是如何运作的,那将是一场灾难

作为专注于技术应用的专家,笔者并非社会政策领域的学者。然而,在涉及技术监管的议题上,确有独出机杼的见解,特别是在监管机构是否应坚持要求解释AI系统工作原理的问题上。而这一做法可能会引发一系列问题,甚至是一场灾难。人们往往难以解释他们所做的大多数事情的具体运作原理。例如,在招聘过程中,决定往往是基于一系列可量化的因素以及直觉的综合考量。应聘者自身可能都无法完全解释其决策过程是如何进行的,这涉及复杂的认知机制和潜意识判断。如果强制要求他们详细阐述每一个决策步骤,无异于是在迫使他们编造一个合理的解释,而非真实反映其思维过程。同样地,神经网络也面临着类似的挑战。在训练过程中,神经网络会学习数十亿个代表从训练数据中提取知识的数字。当输入一张图片时,神经网络能够准确地作出判断,比如识别出图片中是否存在行人。但是,当询问它为什么会这样判断时,实际上是在寻求一个简单明了的规则来解释这一复杂的计算过程。然而,如果存在任何简单的规则能够直接决定图片中是否包含行人,那么这个问题早已通过传统方法得到解决,也就无需借助深度学习技术了。因此,要求解释AI系统的内部工作机制,不仅技术上难以实现,而且可能会阻碍技术创新的发展。应该更加注重评估这些系统的实际性能和潜在风险,而不是过分纠结于其内部的黑箱操作。

可解释性要求的批评者同样在卡尼曼的观点中找到了强有力的支持,特别是他对人类认知局限性的深刻洞察以及对基于海量计算的自动化决策的热情。在接受《经济学家》杂志采访时,卡尼曼与埃里克·布林约尔松(Eric Brynjolfsson)共同探讨了这一议题。布林约尔松指出:一般而言,如果允许人们频繁干预算法的决策过程,往往会削弱其有效性,因为他们可能会过于频繁地推翻算法的判断。此外,人类的印象往往带有偏见、不准确且充满噪声,决策可能受到个体当时情绪状态的影响。

在探讨人类认知局限性时,应持何种态度?诚然,那些强调人类思维局限的论者并非全然无据。研究人类推理的哲学家必须正视认知科学揭示的关于这些有限且易犯错的认知主体如何思考和判断的深刻见解。然而,本文试图阐明的是一种普遍化的观点即现实世界中所有已知的认知形式均不透明且易于出错AI可解释性议题的背景下显得站不住脚。接纳非理想的人类推理理论,并不能合理地推导出对AI监管应持宽容态度的结论。

人类理性局限性论证广受认可,部分因其简化倾向。首先,它依赖方法论个人主义,通过聚焦个体属性理解社会现象,但用于比较人类与AI决策则显得不足。其次,其批评语境中隐含内在主义立场,认为仅关注心灵内部事实即可理解心灵。然而,基于实验研究的人类思维缺陷来比较AI与人类,忽略了人类推理的社会与制度层面。司法推理作为制度化的社会推理,旨在克服个别法官的认知局限,这一点将在后文进一步阐明。

在探讨可解释性议题时,部分学者主张不必过分忧虑自动化决策的透明度缺失,因为人类在思考与判断过程中同样缺乏透明度。此外,无论是警察、法官还是雇主,人类决策者往往难以摆脱偏见,对特定群体成员实施歧视。基于此视角,一个核心议题浮现:相较于当前的人类中心决策模式,AI是否实现了质的飞跃?若答案是肯定的,鉴于人类判断的不透明性与易错性,以及某些形式的歧视行为仍顽固存在,那么对强可解释性的坚持似乎显得视野狭隘,甚至可能反映出一种技术恐惧症。

这种观点忽略了推理的社会性和主体间性,以及影响公民福祉、权利和机会的决策程序的制度性。人类思维与AI之间的类比论证,往往建立在一种贫乏的社会本体论之上,未能充分考量人类决策过程所固有的社会性和制度性特征。作为公共规则体系,制度通常旨在满足人类需求与利益,例如减轻人类理性的缺陷。以法官为例,他们在午餐前判刑可能更为严厉,这很可能是认知疲劳和饥饿所致。简单的规则,如强制休息和延长午餐时间,可以缓解这些因素对判决的影响。然而,这类制度安排并不能完全消除法官有意识或无意识的偏见,或是对外界干扰的脆弱性。因此,法律体系中纳入了上诉权,随着司法层级的提升,审理案件的法官人数也相应增加,并且判决是公开的、接受公众审查的。在司法系统中,诉诸不透明的AI算法并不能仅凭个别法官可能受到模糊、任意因素影响且可能存在偏见这一点来证明其合理性。

司法系统中采用的主体间性、竞争性和制度性推理形式虽非完美无缺,但其规范和程序的设计初衷在于促进公平。在其他社会实践领域,如招聘、警方调查、官僚决策等,也能观察到类似的逻辑,并取得了不同程度的成功。在非理想规范理论的视角下,这些制度虽无法完全消除人类的弱点,但它们却能经受批评并不断改进。面对自然理性的缺陷与不足,不应束手无策,而应寻找方法使决策程序更具审议性和透明度。

泽里尔(Zerilli)等人提出的实践理性的标准相较于可解释性原则对AI的要求显得不够严格,这一论断在深入审视主体间和制度化实践推理模式后难以成立。重申一点,关键在于社会和制度化推理并非完美无瑕,而是公共理性的标准与准则为设计社会制度提供了规范性资源,旨在使其在认识论上更加健全,并在其表现不尽如人意时能够受到批判与改进。

五、实践中的可解释性要求

人类思维与人工神经网络间类比所构建的论证存在根本缺陷。鉴于此,AI领域应当积极接纳并致力于实现强可解释性的标准。如何达成这一目标?部分答案或许藏匿于技术科学的深邃之中:当前,AI研究者们正不懈探索,以期打造更为透明、更易理解或解读的算法模型。

美国国防高级研究计划局(DARPA)启动了可解释人工智能项目,旨在推动突破性进展,但能否成功仍未知。可能的研究路径包括量化超参数或训练数据的影响,以揭示算法输出的关键因素,如预测个人获得学位或偿还贷款的可能性。规范哲学家需评估研究是否取得实质进展。尽管科学家们致力于开发解释算法以清晰阐述深度学习决策过程,但这些算法自身也需具备高度可解释性。然而,该领域面临粉饰结果与事后合理化的质疑。

AI已然融入或正处于开发阶段,即将触及医疗保健、社交辅助机器人、金融决策、警务执法、司法裁断及人力资源管理等关乎民众福祉与社会公正的敏感领域之际,监管机构与政策制定者绝不能持一种袖手旁观的姿态,必须审慎考量并明确现有法律框架是否足以应对AI所带来的全新挑战与潜在风险。

若将自动化决策纳入公共理性审视范畴,监管机构应要求在涉及公民福祉、权利保障和机会均等的关键议题上,将决策权交由AI的组织具备严格的解释能力。例如,当IBM Watson Health提出意外诊断或非常规治疗建议时,医疗团队必须向患者清晰解释其决策依据,以保障患者的知情权并践行医学伦理的知情同意原则。

进一步地,若金融机构使用预测性算法评估贷款资格,申请人应有权知晓被拒贷的具体原因是否基于个人财务状况或信用历史,而非性别、种族等歧视性因素。这不仅促进了金融服务领域的透明度与公平性,也有效保护了消费者权益。

在探讨AI可解释性问题时,往往单纯局限于技术科学领域,而忽视社会与制度层面的方案。简言之,借鉴科学哲学中发现背景辩护背景的区分,组织得以运用不透明的深度学习算法探寻问题的最佳解答,如扫描图中是否存在癌细胞、某位申请者是否应被研究生课程接纳、某公民是否符合社会福利分配资格等,并设计以人为本的程序,对这些决策进行深入解释与道德论证。

坚持AI需符合公共理性标准的观点者同样认为在某些特定情境下,某些AI算法的表现超越了人类推理者。如偏见会削弱司法裁决的质量等。在多数情况下,满足公共理性的要求实质上是维持引入机器学习工具前既有的程序与协议不变。在医疗保健领域,深度学习算法所做出的诊断、预后或治疗建议,理应通过进一步的医学检验或医生临床判断来巩固其可靠性。同样地,在司法系统中,法官应始终有能力阐释并证明特定判决的合理性,以及批准或拒绝保释、假释的依据。这为人类应当理解情况这一原则提供了具体而实质的内涵。

在科学探索的语境下,新思想、假设或成果的诞生可能归功于偶然或错误,但这并不必然削弱它们的价值或有效性;对学术共同体而言,关键在于这些成果如何经受住科学的严格验证过程。维护并强化人类对机器学习算法决策的评估与验证能力,既是应对错误或故障的重要保障,也是确保决策质量与公正性的关键。机器学习算法在处理异常值、长尾现象及训练分布外的泛化挑战时常显不足,而罕见数据或情境可能规避其相关性检测。因此,AI的自动化不应削弱或取代人类专业知识。

此外,正如拉古(Raghu)等人所指出的,算法在平均性能上的优势可能掩盖了其内部性能的显著差异。具体而言,算法在某些子任务上的表现或许接近完美,但在其他子任务上却可能远逊于人类。由此得出的结论是,在分配任务时寻求人类专家与算法之间的最佳平衡而非完全自动化往往是更为明智的选择。

尽管社会和制度层面的解决策略似乎与AI完全自动化的初衷相悖,但在当前AI无法充分解释关键领域决策逻辑且缺乏易于理解的解释算法的情况下,直接以AI取代人类决策是不合理的。AI依然能在发现背景下通过提升组织决策的整体质量来优化决策过程,但这并不意味着所有由人类工作者执行的任务都将被完全自动化。在复杂案件中,人工与自动化决策并行是一种合理选择。以AI作为辅助工具改善决策过程,不仅符合公民对人工干预和透明信息的要求,也体现了对公民权益的尊重。

六、结论

AI系统作为人类智慧的延伸,其根本宗旨在于协助人类更高效、更精准地达成既定目标。然而,随着AI技术的迅猛发展,其内在的不透明性逐渐成为一个亟待解决的伦理议题。人们不禁要问:在享受AI带来的便利与效率的同时,是否应该因其不透明的运作机制而放弃对其委以重任?

诚然,在某些特定情境下,为了追求更高的性能表现,适度牺牲透明度似乎是合理的选择。正如深度学习领域的先驱杰弗里·希顿(Geoffrey Hinton)在其推文中所提出的引人深思的问题:设想你身患癌症,此时摆在你面前的是两个选择:一是接受治愈率高达90%但无法解释其工作原理的黑匣子’AI外科手术,二是选择治愈率为80%的传统人类外科医生。你会因为AI的不透明性而拒绝它成为合法的治疗选项吗?这一问题不仅触及了技术伦理的核心,也反映了在科技进步与人类福祉之间寻求平衡的复杂性。

因此,需要深入探讨如何在保障AI技术健康发展的同时,确保其应用过程中的透明度和可解释性,从而在提升效率与维护公众信任之间找到恰当的平衡点。这不仅是技术层面的挑战,更是对人类社会价值观与伦理原则的深刻考验。

希顿所举的例子在伦理与技术责任的讨论中显得颇具误导性。设想未来某一天,当具备多功能性的机器人外科医生正式步入医疗市场时,其首要任务无疑是证明自身的绝对安全性。若该机器人展现出诸如欲将患者肺部移除进行手术却无法安全复位等不可接受的行为模式,那么显然,它不应被允许接近真实患者。更进一步,若机器人外科医生的行为逻辑晦涩难解,难以确保其操作的安全性与合理性,这无疑加剧了公众对其应用的疑虑。同样,若工程师无法从复杂的代码中提炼出机器人行为决策的具体逻辑链条,以便领域内的专家(即人类外科医生)进行理解和解释,那么这种技术的推广将面临重大障碍。因此,希顿所构建的情境实则是一个基于错误假设的困境。

在探讨AI可解释性要求时,自动驾驶汽车常被作为反对强可解释性要求的例证。人们普遍认为,用自动驾驶汽车替代人类驾驶能够显著减少道路交通伤害,这一观点在考虑到人类驾驶行为的不稳定性时似乎颇有说服力。然而,现实情况远比想象复杂。自动驾驶汽车的引入将是渐进式的,且需与人类驾驶员、自行车骑行者、行人等多种交通参与者共存。一旦发生如自动驾驶汽车撞击自行车骑行者等事故,设计师必须迅速查明计算机视觉系统或车辆内其他相关设备的问题所在。若无法做到这一点,那么该模型便不应获准上路。由此可见,即便AI看似能带来性能上的飞跃,也并不意味着可以轻易放宽对其可解释性的要求。利弊权衡需基于具体情境细致考量,尤其在涉及公民权利、机会及福祉的重大事项上,几乎难以找到合理放弃可解释性的理由。

此外,从上述机器人技术的实例中,并未发现任何足以削弱算法治理中强可解释性要求必要性的证据。以政府组织采用机器学习算法评估公民社会福利资格为例,此类决策直接关乎索赔人的基本福祉、权利与机会,其影响深远且重大。因此,政府组织必须遵循公共理性原则,充分证明其决策的合理性与公正性。在此背景下,无论是AI领域内的从业者还是社会各界关注者,都应致力于探索并设计出既能满足技术需求又能保障可解释性问题的技术和制度解决方案,而非简单地试图降低或忽视这一议题的重要性。

往期精彩回顾

郑文龙|从严格保护到风险控制:数据监管沙盒的理念遵循与制度建构

乔岳 孙刚|有故意无身份型间接正犯之否定——以内幕交易罪为出发点的展开

目录|《上海法学研究》2025总第13卷

[匈牙利]兹索尔特·兹迪著 王泽山译|算法可解释性和法律推理

[丹麦]杰斯帕·瑞贝格著 奚哲涵译|刑事司法与人工智能:如何评估量刑算法的性能
[荷兰]马西莫·马雷利著 陈波 白文丹译|欧盟《通用数据保护条例》框架下向国际组织传输个人数据:数据传输机制的分析

上海市法学会官网

http://www.sls.org.cn