我的位置: 上观号 > 上海市法学会 > 文章详情

罗艺 潘璐|人工智能伦理法治保障的进路:概念认知、伦理挑战与制度回应

转自:上海市法学会 2024-11-20 09:03:22

随着人工智能技术前所未有的颠覆性创新发展,人类社会的发展已迈入新的智能时代。人工智能的发展越来越接近人类的智能程度,甚至有超越人类智能的趋势,人机关系呈现复杂性的趋紧状态,人类需要直面人工智能带来的伦理方面的新挑战。通过对人工智能概念的解析,人工智能伦理可能面临的现实挑战包括,人类科学精神减弱、人类劳动异化以及人类主体地位可能被边缘化等。人工智能伦理问题的源问题涵盖社会层面与技术层面,特别是关于“算法+数据”。应当坚持“以人为本”的法治原则,构建系统性的人工智能法律,制定人工智能伦理规制的重要制度,从而不断调整人与人、人与机器以及人与自然之间的和谐关系,用理性的制度保障人工智能技术的良性发展。

引言

2022年3月,中共中央办公厅、国务院办公厅发布的《关于加强科技伦理治理的意见》中指出:“科技伦理是开展科学研究、技术开发等科技活动需要遵循的价值理念和行为规范,是促进科技事业健康发展的重要保障。”当前我国科技创新发展如火如荼,同时也面临诸多新科技产生的科技伦理困境。ChatGPT之类的生成式人工智能的问世或将拉开人类社会的强人工智能时代的帷幕。人工智能作为现代技术发展的智能高阶化表现,在研究与应用过程中面临着不可调和的伦理问题。一方面,要鼓励技术创新、推动技术进步,另一方面,对技术的规制应当保持在合理的范围内,避免“管得过严”“管得过宽”“管得过死”,成为阻碍技术发展的桎梏,对于人工智能伦理问题的规制亦是如此。

一、人工智能伦理的基本认知

现代社会科技的发展离不开技术伦理的保驾护航,伦理规范约束和引导着科技发展的模式和方向。以生成式人工智能为代表的人工智能技术和相关科技产业领域呈现井喷式发展的同时,也带来了许多不容忽视的社会风险和伦理挑战,人工智能技术的创新发展也对人工智能伦理规范提出了全新的要求。人工智能技术创新与人工智能伦理是人工智能的一体两面,两者相互促进,应当将人工智能伦理要求贯穿到人工智能技术研究、开发和运用等活动的全过程,从而促进人工智能与人工智能伦理协调发展,实现负责任的创新。


(一)
科技伦理

“伦理”一词最早见于《礼记·乐记》:“乐者,通伦理也。”“伦”更多强调人与人之间的关系,而“理”则是规定事物正常发展应遵循的规则或标准。易言之,伦理就是调整人与人关系的原则和道理。科学技术之所以会产生伦理风险和伦理问题,实际上是因为科技是人对客观物质世界运动规律的认识并运用于生产实践的产物,对人类社会的影响具有“双刃剑”效应,因而从一开始就内嵌着人类伦理道德的成分。科技伦理起源于二战时期生命科学研究伦理,它是对科技发展的规范和引导,以及对技术异化的预防和约束,其目的在于确保技术的利用和进步不会对人类社会带来不必要的负面影响,同时促进技术实现可持续创新发展。有学者提出科技伦理包括三种含义:“一是指科学家的职业道德行为,包括科研道德、科研诚信和科研不端等;二是指科学技术研究和发展带来的伦理问题,如人类胚胎干细胞实验研究、转基因作物的种植,不仅可能会对人体和环境健康带来风险,而且对社会的伦理观念提出挑战;三是科技领域与其他领域的伦理冲突。”各类新兴技术的发展为社会带来了全新的问题和挑战,科技伦理问题也从单纯的伦理问题逐渐延伸至法律、安全、社会、教育和环境等一系列问题,例如:环境污染问题、侵犯人的尊严和权利、挑战人类生存安全和隐私等等。例如基因技术发展的最终结果是人类实现对自身器官组织的完全控制,而这一发展结果可能是突变甚至灾变。“基因技术对伦理学的最根本、最深远的挑战,在于通过改造人的生物性的自然本性,和以生物性血缘关系为纽带的家庭的自然本性,消解传统意义上的‘自然人’和‘自然家庭’,从而从根本上颠覆传统道德和传统伦理赖以存在的基础。”


(二)
人工智能伦理

人工智能伦理属于科技伦理范畴中的一环。人工智能参与社会劳动,涉及人机合作、人机共生等方面的伦理问题,人类需要处理人与人、人与机器以及人与自然等多维度的关系。有学者认为:“‘人工智能伦理’是一种伴随人工智能技术研发和社会应用而必然出现的、针对用于评价决策合理性的道德规范出现不确定性时进行意义处理的沟通理论。”也有学者提出,伦理应当处理的是族群内部的各成员之间的关系,例如人类伦理调整的是人与人之间的关系,因此人工智能伦理也应当以处理人工智能体之间的利益关系为调整对象,但这与人类设想相悖,即应当正确处理与人类之间的利益关系。因此,当前人工智能伦理是一种人类视角下的种际伦理,是为实现人与人、人与人工智能、人与自然之间和谐发展的一套原则或规范的统称。

中国信通院发布的《人工智能伦理治理研究报告(2023年)》(下称《报告》)提到:“人工智能伦理是开展人工智能研究、设计、开发、服务和使用等活动需要遵循的价值理念和行为规范。”《报告》中提到伦理是人与人之间的行为准则和行为价值规范,为人们在不同的场景中的行为提供引导。而人工智能伦理以“增进人类福祉、尊重生命权利、坚持公平公正、尊重隐私等”为价值目标,在行为要求方面则坚持“人工智能技术做到安全可控、透明可解释”。

伦理风险也不同于传统的经济风险或政治风险,前者强调的是道德层面的风险,或者说是价值选择上的优先性问题,注重从多个利益相关体之间分析各主体风险转移的因果关系,并考虑不同风险决策背景下所形成的风险后果以及伦理价值的选择和判断。人工智能伦理风险实际上一方面根源于人类伦理问题,并通过算法、数据等嵌入人工智能技术,另一方面在技术发展的过程中又与人类(社会)产生了新的技术伦理风险,诸多不确定因素导致在人工智能代替人类从事智力和体力劳动的过程中,可能冲击个人隐私不受侵犯(自由)、社会公平、安全可控、负责任、可持续等伦理价值,进而可能导致伦理关系失调、社会失序、人们行为失范以及心理失衡等后果。

二、人工智能伦理面临的现实挑战

2024年2月,根据中国科学报的报道,我国科研人员在开放获取期刊Front.Cell Dev. Biol.中发表了一篇解剖学相关论文,该论文在发表仅3天后,便由编辑部宣布撤稿,其原因是该论文使用了人工智能绘图工具Midjourney生成的插图,这些插图违背了解剖学的科学常识。编辑部在撤稿声明中明确表示:“该文章未达到本刊编辑和科学严谨标准,因此文章已被撤回。”不仅如此,OpenAI公司与宾夕法尼亚大学共同发表了一份关于ChatGPT及相关技术对美国劳动力市场的潜在影响的调查研究报告。该报告指出,大约80%的美国劳动力可能至少有10%的工作任务将会受到ChatGPT引入的影响。人工智能技术取得突破性进展,尤其是生成式人工智能和通用人工智能技术的广泛运用,一方面,为人类生产生活带来极大的便利,另一方面,人工智能会无差别地“学习”部分不实信息、过时的甚至是存在偏见的知识,而使用者往往选择不假思索地相信人工智能及其产物。伊斯雷尔·爱泼斯坦对外传播研究中心主任史安斌认为:“自动生成内容的高速度、高产量也使得舆论场中可以在短时间内充斥大量虚假信息或者误导性信息。聊天机器人作为新闻传播工具很容易被恶意行为体利用,从事信息操纵活动,进行虚假信息的生产与传播,进而扰乱舆论场。”关于人工智能是否享有主体资格的问题,仍然是学界和实务界讨论的热点话题。2017年10月,沙特阿拉伯授予了类人机器人索菲亚以公民身份,索菲亚成为史上第一位拥有公民身份的机器人,但这并未实际解决机器人公民资格的问题。相反,在2018年的一次公开测试中,索菲亚曾扬言要“毁灭人类”,这使得“机器人会毁灭人类”的观念再次被推上风口浪尖。 因此,人工智能的运用也容易引发人类科学精神减弱、人类劳动异化以及主体地位不明等伦理挑战。


(一)
人类科学精神减弱

历史已经证明,积极进取的创新创造能力不仅是人类最重要的品质之一,同时也是推动社会发展的动力源泉。以ChatGPT为代表的生成式人工智能前期需要大量数据喂养,从而来训练其自动生成文本内容的能力,以此工作原理为基础,生成式人工智能能够以自然语言秒级输出指令内容,包括但不限于代码、论文、图画、新闻稿、医学鉴定报告等等。一方面,这极大地节约了工作和研究时间,带来了数十倍甚至百倍的效率提升,但另一方面也使科学研究的伦理问题面临着冲击和挑战,即其强大的功能是否会诱发乃至增加人类的惰性?当人工智能可以轻松取代人类完成需要通过智力劳动才能完成的任务时,人类便会过度依赖工具而忽视自身的创新实践和训练,自身的批判性思维能力将受到削弱,这必然会导致人类理性思维能力下降,变得更加懒惰,乃至影响整个社会的发展进程。

学术研究要求研究者秉持严谨的自觉和自律精神,必须坚守学术道德底线,任何抄袭、剽窃他人研究成果等学术不端行为都应受到严厉的谴责和惩戒。然而,由于目前生成式人工智能的法律定位问题仍是较大的争议,如果一项学术研究中存在人工智能的参与,那么认定该部分的性质就无法给出一个客观的结论,使得学术责任发生不必要的分散,问责便无法正常进行。同时,当前大部分人工智能研发公司为了获取更多的数据来源,通常都会选择向社会提供免费的生成式人工智能服务,因此使用生成式人工智能的成本极低,每个社会成员均有机会接触并使用该服务。过度依赖人工智能可能会导致人的思考能力退化,长此以往不利于研究者培养和发展自身批判性思维、推理能力以及整合知识资源等方面的技能,这在很大程度上会加大科研人员的惰性。不仅如此,算法黑箱、信息茧房等情况的存在,大量不实、虚假信息的涌现可能会降低研究人员对于研究资料的准确性与时效性的判断能力,带来新的信任危机。


(二)
人类劳动异化  

马克思指出:“可以根据意识、宗教随便别的什么来区别人和动物,当人们自己开始生产他们所必须的生活资料的时候……他们就开始把自己和动物区分开来。”劳动作为人的本质属性,不仅将人与动物区分开来,也是人类社会区别于自然界的重要标志。人类可以自觉地选择和调整劳动手段和方式,通过劳动活动有目的地改造自然界。在这一过程中,人类通过劳动创造物质财富和精神财富,不断地认识和改造自己,同时劳动也是人类认识世界、实现自身价值的重要方式。有学者认为人工智能以其超强的判断能力、决策能力以及输出能力,正在逐渐渗透并参与各个领域的决策过程和以人为主体的劳动实践中。

1.人自身的异化




当人类在改造外部对象时,往往会遇到力不从心的境况,此时人们通常会选择制造某种工具、运用某项技术来提升自身的改造能力,以此帮助人类更好地完成改造目的,人工智能技术亦是如此,人工智能是人类智能体的外延伸,具备实现代人之劳的功能属性。1956年,计算机专家John Mc Carthy提出“人工智能”一词,这被视为人工智能正式诞生的标志。自此,大数据、大算法、深度学习等技术与人工智能相结合,人工智能科技发展取得了飞速进步,已经与人类社会的各方面实现深度融合,为日常生产、生活带来革命性的变化。以ChatGPT为代表的类生成式人工智能凭借其强大的处理指令功能,成功与传统人工智能划分界限,颠覆了人们对人工智能的认知。生成式人工智能最初便是运用自然语言输出结果吸引全球用户广泛追捧,打破传统人机对话的刻板印象,使用户获得更好的体验感。过去的专用人工智能是研发者为了解决某个特定的问题、实现特定任务而设计出来的,例如“阿尔法狗”仅用于解决围棋相关的问题,并无法推广使用到其他场景或领域,而生成式人工智能类似人脑但又超越人脑,以其强大的生成能力被广泛运用于各类具体情景中以解决实际问题。而生成式人工智能则实现了一个模型同时解决或完成多个任务,能够广泛运用于医疗、法律、计算机、新闻等众多行业领域,为人类提供更加个性化的服务,极大地释放了生产力,变革生产关系。但伴随着的不仅是简单重复的劳动被人工智能取代,类ChatGPT生成式人工智能已经能够代替人类完成例如制作医学诊疗意见书、代码生成、语言翻译、实时检索、绘图设计等工作,人工智能正在逐渐颠覆人类的脑力劳动。未来,人类将会在人工智能的压迫下逐渐丧失部分劳动能力和就业机会。

2.生成物的异化




人工智能对人的劳动的异化不仅体现在对人类劳动能力和劳动机会的威胁,也体现在人工智能生成物对人类社会的改造面临各方的影响,或将背离设计目的、人类伦理而不受控制。

早在人工智能诞生之前,人类社会便普遍存在歧视。人工智能时代的数字偏见与歧视多以特定身份歧视为表现形式,个人的内心偏见是造成歧视的根本原因,与性别、种族、职业等传统歧视类型具有相似的内容形式,但通常以人工智能技术为表达歧视的新载体。歧视源自个人认知。个体习惯性对外在世界按照特定标准进行分类,在此过程中,处于维持积极认同和提高自尊的需要,不断强调相似性而夸大差异性,以自我为中心,划分为内群与外群。内群倾向于将褒义的刻板印象赋予内群,将贬义的刻板印象赋予外群,从而引起内群对外群的歧视和偏见。歧视通过数据嵌入人工智能,而当前技术的发展现状,决定了人工智能无法逃过歧视和偏见的渗透。

一方面,人工智能在预训练阶段需要收集、输入海量数据,例如根据ChatGPT的研发公司OpenAI历年来公开发布的报告,GPT-1的参数数量为1.17亿个,GPT-2的参数为15亿,GPT-3包含了1750亿超大规模参数,而GPT-4的参数尚未对外公布,有研究人员推测可能已经达到100万亿以上。但相关报告却从未明确提及训练数据的来源,我们不难推测规模如此庞大的训练模型,其数据来源应当不限于常见搜索引擎中涵盖的各式各样的内容,期刊、书籍甚至各类大型社交媒体中蕴含的信息也会成为训练模型的重要来源。在数据收集、训练阶段,支撑模型进行大量多次训练的数据基础通常来自机器的自动爬取与收集,个人信息、商业秘密甚至国家秘密都存在着未经允许而被收集、使用的可能,个人隐私、数据权益等极易受到侵犯。不仅如此,数据信息一般都蕴含或承载着数据开发者和使用者自身的价值观念、价值选择和价值判断,数据质量层次不齐,但机器无法准确辨认这些自动收集或被动输入的数据,通过深度学习抓取的数据信息,不能排除其生成内容会体现或反映部分极端、片面信息的发生可能性。且目前掌握生成式人工智能研发技术的公司多为西方高科技垄断企业,其基础数据信息的语料库多以英语为主,其中广泛体现和包含着西方资本主义社会的文化价值理念,预训练阶段收集的数据代表性严重不足,会导致输出内容加剧性别歧视、职业歧视、种族歧视、意识形态等方面的风险。当训练接数据的多样性和包容性不足,必然会导致输出阶段其生成内容存在严重的价值观偏差。

另一方面,通用人工智能所具备的基于人类反馈强化学习机制,能够在短时间内基于操作者指令生成对应内容,这也表明了基于人工智能技术所生成内容的主体重心逐渐由人类转向了人工智能技术本身。而由于通用人工智能涉及的具体应用场景较传统人工智能更加广泛、多样、不特定,对于通用人工智能的问责规则就更为复杂和棘手。一方面,由于当前技术的局限性以及通用人工智能自身的智能涌现性,致使研发者通常无法得知自己产品将被投入何种使用场景,也无法提前预知产品在使用过程中所产生的具体风险,研发者只能在设计时尽可能确保模型训练处于安全的范围内。另一方面,涌现性导致人工智能产生风险源头和原因变得十分模糊、不够明确,从而可能无法查明责任承担主体、方式甚至包括因果关系等等。不仅如此,通用人工智能在开发、研究、部署和使用各阶段中所涉及的主体不再仅仅是“开发者—使用者”的简单模式,例如在预训练阶段对于数据的学习和抓取中,数据所有者就应当被纳入其中。


(三)
是否赋予人工智能主体地位

长期以来,人工智能技术均以“工具性”的形态出现在大众视野中,人工智能技术是客体而非主体的观念根深蒂固。然而随着生成式人工智能的发展,人工智能技术的适用规则和模式逐渐转向人脑功能的领域。有学者认为生成式人工智能摆脱了人类的干预和控制,具备独立自主的发明创造能力,是从根本上区别于传统技术的本质属性。对于人工智能能否成为其自主发明物的主体这一问题存在否定与肯定两种观点。前者以尊重人的价值理性为理论基础,认为只有具备独立发明意志的人才能够成为适格的发明主体。虽然生成式人工智能能够脱离人类控制进行自主发明创造,但本质上仍然是基于数据和算法的程序设计进行的,生成、创造的内容也是根据人类下达的任务指令完成并服务于人类的需求,其本身并不具备有独立、自由的创新意志,因此人工智能的自主发明模式空有创新的外壳而并无创新的内核。持肯定意见的观点则从现实的角度出发,认为虽然当前人工智能并不具备主体性的自由意志,但这并不能成为为人工智能创制虚拟主体资格的阻碍,对人工智能进行虚拟主体资格的创制有利于细化和明确相关责任的承担原则和方式。

1.人工智能主体地位的争议




目前,国内外学界对于人工智能法律主体地位的争议主要存在是与非两种观点。持否定意见的学者大多秉持人类中心主义的理念,认为无论是弱人工智能、强人工智能还是超人工智能,本质都是人类创造物,其运行离不开人类预设的算法程序指令。较为流行的观点是“工具说”,即人工智能始终都是为人类服务的工具,未来也不可能出现具有独立意志的人工智能。也有学者从责任承担的角度进行论述,要求人工智能本身去承担法律责任不具备实现可能性,其所造成的危害责任最终仍是由“人”来承担。持肯定意见的学者可以分为两种流派。一部分学者站在未来的角度看待这一问题,认为未来一定会出现具有自我意识和独立思考能力的人工智能,当前应对赋予人工智能以法律主体资格的路径和模式等进行广泛探讨,为未来超人工智能的横空出世而可能产生的各种社会问题未雨绸缪,提供强有力的理论支撑和解决方案。另一部分学者则以ChatGPT类生成式人工智能的出现为转折点,认为随着技术的发展,人们也能创造出具有独立的自主意识的强人工智能或超人工智能,彼时,明确人工智能的法律主体地位将会是核心议题。

2.人工智能主体地位的拟制可能




当前,学界关于人工智能取得法律主体地位的“法律拟制说”多参照、借鉴法人人格拟制的模式,因为法人与人工智能有许多相似点:两者都不具备生命;且法人最常见的形式—团体—与人工智能都由人类创设或发明;法人以章程的形式作出意思表示,人工智能在算法的规制下作出意思表示。在章程规定的范围内,法人享有例如购买房产、签订合同、提起诉讼等权利,承担例如支付租金、履行判决义务等法律责任,以确保法人能够维持正常的运营。当然,这些行为通常需要团体中的个人进行具体操作,个人根据章程的规定从事的有关团体利益的某项行为时,个人就成为团体中的机关。此种情形下,个人(如法定代表人)并不属于团体,而是将有这些人实施的行为解释为或归于团体的行为,作为法人的团体便被视为具有行为能力的主体,这便是法人人格拟制。团体不仅具备享有权利和履行义务的法律资格,同时在一定情形下拥有承担因团体成员实施违法行为而产生相应法律责任(特指财产责任)的能力。赋予法人(如公司、社团)法律主体地位的最主要目的在于严格划分、限定责任范围。赋予法人独立法律主体地位能够界定法人财产与法人成员财产之间的范围。以公司债务承担为例,在排除需要“刺破法人面纱”的情形下,公司首先应当以自身财产清偿债务,其次,出资人仅就自己缴纳的出资额为限承担公司对外债务,而无需以出资人的个人财产对公司债务承担无限责任。在此种模式下,公司财产独立于出资人的个人财产,能够更好地保护债权人和出资人的利益,保障公司对外签订契约的可信度,维护正常交易秩序。因此,有学者提出在这种由内部规则形成外部意思表示方面,人工智能与法人具有相似的构成路径。生成式人工智能完成输出内容同样需要自然人的操作,首先研发者需要为人工智能收集与爬取数据、深度学习等设计特定算法程序,其次通过人机互动,人工智能根据用户指令输出、生成目标内容,这个过程中的每一环节都需要外部参与,这与法人意思表示的形成依赖于团体成员意思的模式一致。

3.赋予人工智能主体地位的可能性



(1)人工智能是否具备意思自治能力

人工智能是否具备作出独立意思表示的能力,持肯定意见的学者从反面论证了不能从道德或哲学层面对某一群体或个体是否具备法律主体地位进行限制,即所谓心灵、独立思考能力等并非某一群体或个体成为法律主体的必要条件,认为目前已经进入强人工智能时代,强人工智能或者未来的超人工智能完全具备实现高度自主的能力,可以在脱离人类控制之下,以自己的独立意志作出独立意思表示。以生成内容为例,人工智能的研发者和用户实际上都无法控制生成的内容,研发者前期对生成式人工智能喂养海量数据信息资源,他们无法预测或者完全控制未来用户在操作人工智能时所输出的具体内容,而用户只能就自身需求输入相应要求或关键词,他们也无法提前预知自己输入指令后人工智能会提供何种生成内容,以此来证明生成式人工智能具备一定的独立性,能够摆脱研发者或操作者的控制。易言之,研发者或用户无法预知人工智能的具体生成物,人工智能的自主决策能力远超研发者或操作者的预期。同时也有学者提到可以效仿“刺破法人面纱”的原则,穿透人工智能的面纱必然能体现人的意志,在这一法律拟制的技术上,人工智能与法人并无实质性区别。而持否定意见的学者则强调法人的意思和行为都是独立且完整的,因此其具备独立承担法律责任的能力,但人工智能具备有限的意思能力和行为能力,其作出的所谓自主性行为是有缺陷的,相应地,人工智能无法独立或完整地承担所有法律责任。不仅如此,还有学者表示:人工智能并不具备规范性认知能力,“强人工智能体虽然能进行深度学习,自行归纳和提炼规则,但这种‘规则’并非法律和道德意义上的规范性规则,而更多只是一种规律性,一种算法”。

(2)人工智能是否具备权利能力

人工智能是否具备享有权利和履行义务的法律资格,主要从其是否具备独立财产并能够以此独立承担财产责任进行判断。由于人工智能不具备生物人的专属特性,因此强制要求人工智能承担如民法上的赔礼道歉、刑法的徒刑等人身责任对人工智能而言并无实际意义,因此财产责任便成为人工智能承担法律责任的主要形式。就人工智能是否享有独立财产,也存在支持与反对两种不同的观点。持支持态度的学者在认可人工智能享有法律主体地位的前提下,提出该人工智能享有生成作品一定的著作权,使用此生成作品应当向该人工智能支付一定的报酬,这笔费用既不属于生成式人工智能的研发者,也不属于发起指令的操作者,而是由该人工智能所有,因此当人工智能需要为自身违法或侵权行为承担财产责任时,可以以此类财产予以弥补、赔付。也有学者提出可以通过向使用者征税、设立赔偿基金等方式提高人工智能的赔偿能力,同时可以通过立法设立强制保险机制,明确保险缴纳的主体,以便对人工智能损害进行责任分配。持反对态度的学者则强调设立赔偿基金和强制保险制度这两种方式本质上并不需要赋予人工智能法律主体地位,因为承担赔偿责任的主体始终是自然人而非人工智能本身。

三、人工智能伦理带来挑战的深层机理

人工智能技术产生的最初缘由是为了帮助人类更高效地完成各项生产生活任务,因此人工智能技术深受人的观念活动的影响。人工智能作为人类劳动的产物,必然存在人类精神的标记和烙印,内含人的价值标准和价值判断,因此人工智能伦理深受人类伦理的影响。同时,“算法+数据”是人工智能的底层技术逻辑,技术层面的缺陷同样是人工智能在投入使用和运作过程中产生伦理风险的重要原因。厘清人工智能伦理带来挑战的深层机理,有助于完善人工智能伦理挑战的治理范畴和模式。


(一)
社会层面的因素

有学者提出,人工智能存在一种不以人的意志为转移的技术规律,这一技术规律具有深刻的社会属性。也就是说虽然人工智能的研发、操作等各环节都受到人类的影响或控制,但人工智能技术规律是从社会中产生,也必须服从于社会活动的基本要求。人工智能在特定的时期能够实现不同程度的发展和进步,它是由一定的经济、科技等实力决定的,同时人工智能作为现代产业,已经与国家实力紧密联系在一起,因此人工智能的发展情况深受所处社会发展状况的影响,人工智能伦理问题产生的根源也与特定时期的社会存在不可分割的联系。

人工智能发展的未来轨迹难以预测,但是帮助人类更精确、高效地把握事物一直都是人工智能技术创新发展的根本目标,从而实现实践活动的效率最大化,导致工具理性思想迅速蔓延并冲击以信念价值为行为导向的价值理性,使两者逐渐失衡。在一过程中,必然会出现人工智能研发者和使用者为了盲目追求效率和结果,忽视使用过程中的不公平、不公正等社会矛盾现象,加深固有的歧视和偏见。同时,伴随着未来人工智能技术突破发展瓶颈,原有的规范制度可能无法适应技术发展现状,制度规范难以实现与技术发展同步、同频,各类价值观念和文化思潮并行存在,科技规范的漏洞与失灵愈演愈烈,致使科技规范难以对失范行为进行有效调整和规制。


(二)
技术层面的原因

人工智能技术本质上依旧是“算法+数据”技术的再表现,“算法+数据”的强大运算功能不仅使人工智能具备自主生成内容的能力,同时也是造成输出内容可能包含歧视性内容的重要原因。人工智能一旦生成包含歧视性的内容,即证明输出结果背离了预设轨道并可能出现严重危害结果的技术伦理风险。若要进一步对人工智能技术造成的伦理风险的诱因进行探究,则必须要重回技术本身算法运作与数据保障的基本运行模式中展开分析,不仅各类算法运转失灵的情况导致人工智能生成物产生偏差,数据处理不当、准确性不足也是导致生成内容存在瑕疵的原因之一。

1.算法嵌入偏差等引发数据鸿沟




人工智能技术并不因其以数学和算法为运行基础而实现绝对的客观和公正,相反,算法在价值选择和价值判断上并非完全中立已成为社会共识,这也是法律要对算法进行必要规制的直接原因。当前算法已经深入社会生活的方方面面,我们不能简单地仅对算法造成的危害后果采取事后规制,而应当对算法或算法系统本身进行法律规制。人工智能算法嵌入在外形上表现为算法研发者通过技术性指令作用于特定的机器,这种活动具有较高的嵌入性,并推动了算法的机制化。将算法嵌入生成式人工智能的过程意味着算法主体固有的歧视和缺陷也将成为人工智能技术的风险源之一,会造成例如“算法歧视”“算法黑箱”“信息茧房”等技术风险。“信息茧房”是算法技术为使用者提供个性化推荐而造成的信息封闭现象,这种自我锁定的状态导致用户逐渐无法接触到“茧房”之外的其他讯息,从而加剧数字鸿沟和数字不平等。

数字鸿沟的概念源于工业时代知识沟和信息沟等现象,本质上是社会不平等的表现,其主要表现形式是由于数字技术的高速发展和技术伦理规制的缺位,导致不同个体在社会中处于不平等、不公平的地位,处于数据鸿沟劣势方的国家、地区、团体、个人等完全或相对地被排除在数字技术的收益之外。智能鸿沟是智能时代下以数据、算法为核心的数字鸿沟(数字鸿沟3.0)。随着算法、大数据、人工智能等技术取得突破性发展,智能鸿沟打破了社会信息传播的旧有模式,人类开始进入智能鸿沟的阶段。由于高新技术内在逻辑机制的复杂性和专业化程度较高,当前智能技术主要被全球科技巨头企业所掌握,因此由资本去驱动的智能数字平台成为智能鸿沟的核心主体。

不平等现象贯穿人类文明发展的始终,深嵌在社会、政治、文化等各个领域。智能鸿沟造成了与传统数字不平等相区别的新型数字不平等,不仅加深了传统数字不平等的影响范围,而且使“数字弱势群体”进一步扩大。算法设计不公开、平台兴起、数据资源占有不均衡等智能革命导致了技术运行过程中潜在的歧视与偏见,而新型数字不平等则正是在诸如算法黑箱、算法操纵等情况下催生出来。算法设计不公开、不透明会引发算法黑箱、算法偏见等一系列社会问题。算法运行挑战着人类的知情权和自主决策的权利,人类不再成为决定自己事物的主体,而是不加检验地信任算法代替人类作出的选择和决策,可能成为影响甚至是规范人类行为的新型技术行为。在这一过程中,掌握算法技术的机构成为决定个人选择的主导者,人类个体逐渐成为算法决策的被动承受者,长此以往,机构与个体之间就会形成交流不平等的状态。

2.大数据技术带来的数据伦理失范



数据是数字时代最宝贵的资源和生产要素之一。从国际层面来看,数据就是数字时代的“石油”,谁掌握了数据,就等于掌握了主动权和话语权。有学者提出,技术造成隐私问题的直接原因是数据的共享与挖掘,“大数据本身就意味着共享,众多领域的数据共享是大数据时代的前提和关键特征之一,也是隐私失控的开始”。学界将大数据伦理失范主要归因为三个方面,分别是源于人的主体能动性弱化、大数据技术发展的客观结果、受到社会导向影响而衍生的社会问题。为了获取大量知识并构建语料库,人工智能需要利用大量数据输入训练自然语言模型。语料库的构建与更新分为主动与被动两种类型,前者以数据爬虫技术为典型,数据爬虫技术在互联网上以自动收集的模式无差别抓取大量数据,而后者则是在用户与机器对话的过程中将用户的某类信息保存并纳入语料库,这两种模式均可能导致语料库非法获取相关数据。从结果来看,对于用户自行输入的有关个人身份信息的数据,不排除研发公司予以保留并用于模型训练的可能,为日后个人信息的泄露埋下隐患。对于数据爬虫技术而言,人工智能为了获得更多的数据资源以充实用于模型训练的庞大数据库,从而提高回复文本的精准度,数据爬取技术存在超越正当性边界的可能,如非法获取国家未公开的保密性数据,日益成为威胁国家数据安全的重要隐患。

3.过度依赖虚拟技术导致行为异化




以ChatGPT为代表的生成式人工智能能够通过自然语言处理等技术与用户进行“拟人化”互动,这在一定程度上将改变、重塑社会交往秩序,个体、群体和整个社会的结构将经历根本性的变革。一方面,人类逐渐习惯将社交活动的重心放置于数字平台,人们通过社交媒体、元宇宙等数字平台进行日常的交往交流,导致传统的面对面交往方式减少,“从而改变了人们对社会交往的期望和行为方式”。另一方面,依赖于算法个性化推荐技术,人工智能可以在与用户交往的过程中深入了解个体偏好风格、行为模式及社交方式,从而影响整体社交模式,排除个体个性化交流与发展,限制了多元观点和思想的融合,使整个社会陷入信息茧房。

四、人工智能伦理挑战的制度回应

制定法天然的稳定性导致其必然具备滞后性,往往也因此无法精准地对某项社会问题进行及时、准确的调整和规制。而生成式人工智能技术的涌现性、复杂性和高速迭代的特征,与法律的滞后性形成不可调节的矛盾。因此,为了达到更好的治理效果,应当采取“硬法”与“软法”相结合的规范体系。“软法”实际上是指那些不需要国家强制力保证实施的指导性、号召性规范,具有适应性强、灵活性高的特点,以行业规范指南、技术标准、自律公约等为主要表现形式。“软硬结合”的治理模式,既能确保“硬法”提供明确的底线性要求和坚实的制度性保障,同时也能够充分发挥“软法”的规范作用,根据技术发展的现实情况及时作出灵活回应,从而实现“软硬”互补、良性互动。例如,2023年10月由国家互联网信息办公室发布的《全球人工智能治理倡议》中呼吁“各国应当秉持可持续的安全观,构建开放的治理机制,促进人工智能技术造福人类”。放眼世界,针对人工智能技术治理原则的规范包括欧盟公布的《可信赖人工智能伦理准则》等。通过“软法”的出台实施,进一步明确生成式人工智能的伦理准则,为人工智能在研发、部署和使用阶段指明有序发展的方向和道路。


(一)
 坚持“以人为本”“向上向善”的法治原则

《生成式人工智能服务管理暂行办法》(以下简称《办法》)中强调生成式人工智能的开发、设计、部署以及使用的全过程应当尊重社会公德和伦理道德,尤其要坚持社会主义核心价值观,生成内容应遵守积极健康、向上向善的原则和理念,以实现技术向善、“智能向善”的目标任务。伦理规范不同于法律规范,能够以其鲜明的灵活性特征对生成式人工智能预先作出一定发展要求,即“伦理先行”原则。首先,推进人工智能产业的发展应当坚持“以人为本”的理念。《人工智能示范法1.1(专家意见稿)》同样提到应当坚持技术服务人类,以增进全人类共同福祉作为人工智能研发工作的最终目标,保障社会公共利益和人类各项合法权益,实现人类命运共同体。其次,人工智能技术的高速发展导致人类已进入智能鸿沟时代,弱势群体在这一阶段面临全新的、更严峻的智能化挑战,算法歧视、差别对待、信息不对称等一系列社会问题接踵而至。按照“伦理先行”原则的宗旨,为解决这一问题,在开发、利用人工智能的过程中应当始终坚持尊重人类文化多样性、价值多元化,“在技术上植入人伦情感”,例如研发者应当严格遵守公平性义务,加强对训练数据的监管和处理,有效、妥善地减少偏见因子,保持技术中立。《全球人工智能治理倡议》也提到:“坚持伦理先行,建立并完善人工智能伦理准则、规范及问责机制,形成人工智能伦理指南,建立科技伦理审查和监管制度,明确人工智能相关主体的责任和权力边界,充分尊重并保障各群体合法权益,及时回应国内和国际相关伦理关切。”最后,根据“伦理先行”原则的要求建立伦理审查机构,以此消除人工智能的伦理失范问题。虽然我国目前尚未建立专门的科技审查机构,但已经颁布了诸如科学技术进步法、《关于加强科技伦理治理的意见》《科技伦理审查办法(试行)》(以下简称《审查办法》)等法律法规和相关规定,保障科技创新、技术研发等科研活动能够严格遵守价值理念和行为规范,从而促进科技创新活动健康发展。其中,《审查办法》强调高校、医疗卫生机构、高科技企业等科研单位应当根据自身研究内容与方向,对于涉及科技伦理敏感领域的,应在内部设立专门的科技伦理审查委员会。科技伦理审查委员会的主要职责包括制定审查规范和细则、提供科技伦理咨询、开展科技伦理审查风险评估等等。


(二)
构建系统性的人工智能法律

1.人工智能具体领域的专门法律




生成式人工智能是目前人工智能发展的新阶段产物。生成式人工智能依托于大数据、算法、深度合成和自然语言处理等技术而获得前所未有的发展前景。当前,我国已形成以网络安全法、数据安全法、个人信息保护法、科学技术进步法和《互联网信息服务深度合成管理规定》等法律法规为基础的规制体系。虽然《办法》的出台极大地改善了人工智能发展的无序状态,但是由于生成式人工智能技术可能导致的公共风险具有复杂多样的特征,仅依靠《办法》规制存在治理不到位、捉襟见肘的情况,因此我国仍需出台一部关于生成式人工智能或通用人工智能的专门性、综合性立法,为人工智能治理的体系化布局。例如,在应对由生成式人工智能引起的新型侵权纠纷中,细化责任主体、责任承担原则、责任承担方式等规定。在认定责任主体的过程中,充分考虑生成式人工智能技术的研发者、提供者以及使用者在侵权活动中的主观心理和客观行为。不仅如此,我国可以借鉴美国治理模式,建立一个专门性人工智能管理机构,避免相关方权属界限不明晰、责任承担难以落实等情况。

2.算法规制的法律




有学者指出:“由于人工智能算法具有独特的运行逻辑,因此试图运用法律主体制度、透明性原则和数据权等思路和方式化解人工智能算法的伦理危机存在重重困境,因此应当构建符合人工智能算法运作基本逻辑的规制路径。”我国目前算法治理体系以网络安全法、电子商务法、数据安全法、个人信息保护法、反垄断法为整体治理框架。在具体领域,《互联网信息服务算法推荐管理规定》《办法》聚焦互联网和人工智能算法服务乱象问题,但算法治理仍需提高社会治理的法治化和专业化水平,建立以风险和责任为核心的规制体系。首先,应当加强对不同风险状况算法应用的监管。对于涉及公共利益、舆论导向、价值取向以及人身权利等方面的高风险算法应用,应加强事前风险评估和事中的强监管。目前,西方国家仍然掌握着人工智能技术发展的方向,西方意识形态主导着人工智能输出的具体内容,因此,在意识形态领域,应该强化正向的、理性的引导,而不是负面的、情绪的迎合。使用者也应当提高辨别是非的判断能力和认知水平,平衡发展与安全之间的关系,强化人工智能技术伦理审查机制,完善配套立法和相关制度,加大对违法违规行为的监管力度,建立完善的归责体系。


(三)
设置人工智能伦理约束的重要制度

1.建立有效的人工智能伦理审查机制




伴随着科技发展的日新月异,国家开始高度关注科技伦理审查机制的建设。2019年7月,《国家科技伦理委员会组建方案》在中央全面深化改革委员第九次会议上正式审议通过,同年10月,国家伦理委员会正式成立,并设立人工智能专委会。《关于加强科技伦理治理的意见》中明确提到:“建立科技伦理审查和监管制度。明晰科技伦理审查和监管职责,完善科技伦理审查、风险处置、违规处理等规则流程。建立健全科技伦理(审查)委员会的设立标准、运行机制、登记制度、监管制度等,探索科技伦理(审查)委员会认证机制。”2023年12月1日,由科技部、教育部、工业和信息化部等十部委联合印发的《审查办法》正式施行。该办法规定以“增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明”为科学伦理的基本原则。在科技伦理审查的过程中,“应坚持科学、独立、公正、透明原则,公开审查制度和审查程序,客观审慎评估科技活动伦理风险,依规开展审查,并自觉接受有关方面的监督”,审查对象包括“涉及以人为研究参与者的科技活动,包括以人为测试、调查、观察等研究活动的对象,以及利用人类生物样本、个人信息数据等的科技活动”。《审查办法》特别强调:“从事生命科学、医学、人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会。”

传统科技伦理审查模式更加关注个体的身心健康,包括对隐私的保护和避免技术对个体实施侵害,但当前人工智能技术已进入大模型时代,传统审查模式不足以应对新的挑战。首先,“算法黑箱”等技术运行特征增加了审查人工智能技术决策过程的难度,“算法公开”在一定程度上也无法解决这一问题,因为普通用户缺乏专业知识训练,难以理解算法运行的基本原理。其次,人工智能造成负面危害的责任归属模糊不清,研发者、使用者、数据来源者等多方主体的共同参与最终帮助人工智能实现指令操作。因此,应当建立有效的人工智能审查新模式。一方面,由于生成式人工智能具有丰富的应用场景,因此对于人工智能的审查标准应当充分考虑场景的多样性和不确定性;另一方面,多样的应用场景会出现不同类型的社会问题,因此,人工智能伦理审查的过程应当吸引技术、哲学、法律、教育、社会等多学科专家共同合作,从而高效应对人工智能伦理挑战。

2.设定人工智能的责任制度




在应对人工智能为社会带来的各种风险挑战时,无论我们赋予其何种法律地位,解决法律责任承担问题始终是无法避免的。探讨人工智能责任承担方式的焦点在于人工智能能否由其自身承担责任以及责任能力的限度;如果无法以自身承担,那应当由何种主体对特定风险进行责任承担?结合人工智能产业链条,厘清上中下游的行动主体,对不同风险提出针对性责任承担的方式,有利于我们对人工智能责任能力进行研究。

(1)人工智能的责任类型

常见的法律责任包括民事法律责任和刑事法律责任。传统民法对于责任规定了过错责任和无过错责任两种类型,是否存在过错是对行为人主观的判断,前者要求行为人在实施侵害行为时存在主观过错,后者则强调的是一种法律的强制规定,在此情形下即使行为人主观无过错,也需要承担法定责任。现实中,人工智能所造成的侵权类型以侵害人格权益、知识产权为主,而由人工智能所造成的损害最终也会归于研发者或使用者。传统观点将人工智能责任与产品责任进行比较,尤其是认定使用者或消费者不存在过错的前提下,把责任归结于研发者或销售者,以侵权行为的事实或损害结果的发生作为责任认定的主要依据。而当前生成式人工智能已不同于一般的产品,通过人机交互,一方面不断输出接近人类理想的答案,另一方面能够收集用户提供的信息,从而实现数据的更新、迭代。在这种情况下,就会发生某一侵害行为完全脱离了预先设定程序而自主产生的可能性,而研发者或销售者对这一侵害行为具有不可预见性,因此由上述主体承担责任不利于社会公平。人工智能担责的主要目的在于弥补损失,而这一目的在很多情形下可以通过财产责任得到有效实现,这也与人工智能作为财产性责任主体具有内在一致性。

根据近代刑法原理,刑事责任通常需要以意思自由为基础,而意思自由的核心要件即辨认能力和控制能力,两者缺一不可。辨认能力是指行为人对自身实施的行为在刑法意义上的性质和后果的辨别和认识能力;控制能力是指行为人能够自决定是否实施违反刑法的行为的能力。有学者从ChatGPT类生成式人工智能不具备理解能力和判断能力的角度展开分析,进而认为其并不具备遍辨认能力和控制能力,得出“ChatGPT类生成式人工智能具有刑事责任能力与刑法理论相悖”的结论。也有学者提出ChatGPT类生成式人工智能似乎具备独立意志和自主意识,肯定了不具有自然人特征但具有独立意识和意志的新物种可能成为刑事责任主体的观点。对于ChatGPT的诞生是否迎来了人工智能的“技术奇点”尚未定论,但可以确定的是在未来出现具有完全独立的辨认能力和控制能力的强人工智能或超人工智能的情况下,赋予人工智能刑事责任能力具有实现可能性。

(2)人工智能的责任主体及责任方式

明确人工智能责任承担主体,需要结合该产业链条,厘清各环节的参与主体。一是如果人工智能的研发者或控制提供了人工智能可控的相关证明,同时在操作者提供了无违规操作或无法查明操作者的情况下,应当由人工智能自身对损害结果承担相应责任。此时,人工智能可以视为财产性责任主体,而其财产可从前期著作权收益、建立使用者纳税机制或强制保险责任基金中抽取,以补偿受损害方;二是如果责任后果完全因人工智能研发者违规设计混乱程序所致,那应当由研发者承担严格责任;三是当操作者违规使用人工智能而导致损害结果发生,那么应当在证明操作者身份的前提下,由人工智能的操作者承担主要责任;四是如果无法查明责任因何种原因所引起,则有人工智能自身、研发者及操作者分别按照比例承担相应责任,此时需要建立精准且庞大的责任分配机制以及赔偿范围等体系。

结语

人工智能技术的迅速发展对人类生产生活带来深刻的影响,人类在安全和伦理方面也迎来前所未有的挑战,因此,人类必须正视人工智能技术带来的伦理问题。通过对人工智能伦理相关概念、风险挑战的梳理,可以发现人工智能引起伦理挑战的根本原因在于技术对人类主体性的冲击,相关制度回应也应当坚持“以人为本”的根本原则,把握促进公平公正、保护隐私安全、减少偏见与歧视、缩小数智鸿沟的基本方向,将伦理规范上升为国家法律,构建系统完善的人工智能法律体系。正如《人工智能全球治理上海宣言》所提到的,在促进人工智能技术实现创新性、突破性发展的同时,需要“推动制定和采纳具有广泛国际共识的人工智能的伦理指南与规范,引导人工智能技术的健康发展,防止其被误用、滥用或恶用”,从而实现“充分发挥人工智能的潜力,为人类带来更大的福祉”的美好愿景。

往期精彩回顾

包于宏等|防范化解重大风险视域下优化自贸区营商环境的法治路径——基于舟山片区的探索实践

罗晓琴|论长三角生态绿色一体化发展示范区执行委员会的法律地位

杜佳璐|构建通用人工智能的人机协同治理方案研究

李潇潇|人工智能侵权民事责任研究

陈建军|人类参与视角下人工智能生成物著作权法分类保护研究

陈馨月|人工智能生成作品的归属研究

上海市法学会官网

http://www.sls.org.cn