

在过去几十年里,机器人技术经历了迅猛发展,其中尤其引人注目的是机器人与人类以及动物之间日益增长的相似性。这种相似性不仅仅限于外部外貌,还涉及行为和越来越多的内部过程。机器人技术的发展导致应用伦理学中出现了一个新的分支,即机器人伦理学。本文将涉及机器人伦理学的一些基本问题,例如我们是否应该让机器越来越类似于人类。我们应该意识到,随着机器人与人类的相似性日益增加,迟早会出现一个问题,即我们是否应该像对待人类一样对待机器人,是否应当给予它们权利。
您进入一家面包店,向柜台后面的人打招呼,她以友好的方式回应您的问候,然后您下了订单。当这个人为您服务时,他会对和您一起的儿子(5岁)非常友好地微笑,并给他一块糖果。您的儿子向那位女士表示感谢。在她给了您想要的东西后,您也表示感谢。您付了钱,出去时祝面包师“今天过得愉快”,她也祝您过得愉快。以上场景每天都在世界各地上演。社会学家会谈到三个人之间按照既定社会准则运作的互动——我们几乎自动地按照这些准则行事,而一些愤世嫉俗者则声称这些准则只是套话。但无论这些套话多么空洞,它们所传达的东西远比它们本身内容更重要。用康德的语言来说,通过它们,我们不仅将对方视为纯粹的工具,而且将其视为目的本身。因此,这些准则表现了综合性的功能,可以这么说:我们向他人表达的每一个行为,都意味着我们将此存在视为道德共同体的一部分,与我们平等对待。但现在我们假设,当您离开面包店,在人行道上被拦住时,被告知柜台后面的“女人”实际上是一个高度复杂的机器人,它不仅看起来像真正的女人,还被编程为根据前述社会规范而行事,即在我们的例子中,至少在日常社交互动的层面表现得像一个真人。几个月来,科学家们一直在研究面包店里发生了什么,然后对机器人进行编程,让其按照人类正常的方式对常见情况做出反应。您作为测试对象,并未意识到这一事实。现在您会被问到以下问题:“下次您再次进入这家面包店,机器人站在柜台后面,而且您不会混淆机器人和真人,此时您会如何行为呢?”您会像第一次那样向机器人打招呼吗——就像第一次您以为是在和一个人打招呼那样?您会让您的儿子在有人给他东西时说谢谢吗,如果您的儿子没有这样做?您会希望在离开时,机器人祝您有美好的一天吗?或者从现在开始,您会像对待普通ATM机一样对待机器人吗?因为当您从ATM机取款时,您不会对ATM机说谢谢。而且,您在放入钱并按下按钮后,也不会对弹出罐头的饮料自动售货机这样做。如果面包店里不是一个高度复杂的机器人,而是一个简单的面包机,您可能也不会这样去做。除了您实际上将如何行为的问题之外,我们还需探讨与道德哲学相关的问题,即面对一个长着人脸、在一般社会互动层面也与人类相似的机器人时,您应该或能够如何行为。机器人的外观和行为是否会引起道德上相关的差异?如果答案肯定,从哪一点以及为什么?它是否主要与机器人本身有关,即如果我们不以某种方式与之互动,即构成对它的不尊重,或者是否与我们和真人互动的方式方法有关,如果我们对长着人脸的机器人表现得不尊重?再假设一种情形,您进入面包店并且第一个情形中的机器人不再站在柜台后面。您怎么知道立于柜台之后的是人类,而不是一个看起来像人类的新机器人?事实是,机器人在我们的生活中发挥着越来越大的作用。然而,这一事实是否受欢迎是道德哲学的一个重要问题,不仅因为机器人可能引发严重后果,还因为它们的数量和类人度不断增加,引发了对道德基础的质疑。实际上机器人可能还需要很长时间才能像前述面包店的机器人一样完善——现实是,我们已经不得不问自己,此类机器人的存在会对道德产生什么影响。这些和类似的问题是所谓机器人伦理的核心。在接下来的内容中,我将首先对机器人伦理学作为应用伦理学的一个新分支进行概述,并在此背景下区分机器人伦理学的两种主要模型,即人类中心模型和我所说的机器人中心模型。然后,我将讨论作为互动伙伴的机器人。这是机器人与人们长期使用的普通机器之间的一个关键区别。在第三部分中,我将讨论作为潜在的道德决策者的机器人。具体而言,机器人越来越多地被置于此种境地,即它必须作出道德决定,也就是涉及生死的决定。最后一部分涉及这样一个问题:有一天,我们是否能够以及在多大程度上赋予机器人——即使不是全部,那么也是特定的——权利——而且,机器人已经走在这条道路之上。以下考虑主要是为了识别机器人伦理中的重要问题并将其中出现的问题进行总结和抽象。为这些问题提供现成的解决方案超出了本文的范围。其中一些问题已经以非常尖锐方式出现。现在,我们有机会制造出外表与人类非常相似的机器人,并且可以与人类进行相对复杂的交互程序。而且,我们已经可以选择按照结果论或道义论对机器人进行编程,至少在非常初级的层面上是这样。至于其他问题,目前还不确定它们是否会变得严重。例如,人们可能会想到这些问题:机器人是否应该有道德良知——或者至少具有同等的功能。不过,即使一些问题还没有出现——也许永远不会——这也不应妨碍我们现在讨论它们,这样当科学家提供了技术可能性时,我们也不会完全不知所措。由于过去二十年机器人领域的快速发展,实践哲学的一个新分支也随之发展:机器人伦理学。机器人伦理当然可以被视为技术伦理的一个分支,因为机器人最终是技术的产品。然而,它给技术伦理带来了一个新的维度,这个维度也存在于所谓的计算机伦理中。虽然传统的技术产品看起来不像人类,社交行为也不像人类,但机器人看起来越来越像人类,社交行为也越来越像人类。30年前,社会学家雪莉·塔克尔(Sherry Turkle)在其研究中提出,带有人工智能的计算机设备会影响我们对自己的看法。塔克尔关于计算机的说法更适用于机器人,因为它们不仅具有人工智能,而且通常还具有与人类相似的特征。就像其他以“-ethik”后缀组成并表示特定领域伦理学术语一样,机器人伦理学一词也具有固有的模糊性,因此人们可以区分对此概念的激进和不那么激进的两种理解。此时,值得考虑的是与动物伦理学的概念进行简要比较。动物伦理学作为应用伦理学的一个分支,专注于研究人类对动物的行为,自彼得·辛格(petersinger)的著作《动物解放》(Animal Liberation)出版近40年来,在应用伦理学中占据了核心地位。一方面,动物伦理学是实践哲学的一个分支,用康德的话来说,它仅仅描述了我们尊重动物世界的义务。但是,动物伦理学也可以指实践哲学的这样一个分支,即它描述了我们对动物世界的义务。在第一个模型中,没有赋予动物任何道德权利,然而在第二个模型中肯定有此类权利的空间,甚至面对动物之义务归属的基础不必以权利为前提条件。第一个模型仍然停留在以人类为中心的框架内,主要将动物视为其福祉与人类福祉相关的存在。例如,我不应虐待狗,可能是因为它属于他人,其主人会因我的行为而痛苦,或者因为我的行为可能反映出残忍,这种习惯可能对我的其他行为产生负面影响。在这两种情况中,他人的痛苦才是核心。狗作为狗,不是因其本身而被爱护。就此而言,我们可以称之为一种以人类为中心的动物伦理模型。与此相对,第二种模型是以动物为中心的模型,因为它考虑动物本身的福祉。我不应虐待狗,这主要是因为人们能以狗的名义提出道德主张——正如人们所说,倡导性的——不能因为是狗而虐待它。在机器人伦理学中,人们可以类似地区分以人类为中心的机器人伦理学和(如果表达允许的话)以机器人为中心的机器人伦理学。第一个模型只关心人类的福祉,第二个模型也(甚至并非第一性地)关心机器人本身的福祉。当机器人被摧毁时,你是否只看到它对其主人造成的伤害(也可能是情感性质的伤害),或者你是否也(也许主要是)考虑机器人本身的伤害或者痛苦,这是完全不同的事情。然而,我们首先需要确定机器人是否真的能够受到伤害或感受痛苦。毫无疑问,今天许多动物物种都能感受痛苦。但这也适用于机器人吗?如果我们不跟前述面包店的机器人打招呼,它会不会感到被冒犯呢?如果没有顾客向它打招呼、没有人对它说好话时,它是否会陷入深深的沮丧之中——就和那些处于这种境遇的人类一样?然而,就机器人伦理而言,还能想到第三个模型。虽然将动物变为依道德而行事的存在似乎不可能,但这对于机器人至少原则上并非不可能。主要是因为机器人可以智能行事。人们无法教会动物进行道德思考;对于机器人,人们可以尝试通过算法来实现这一点。有些作者认为,我们应该尽快教会机器人进行道德思考和行事,将它们培养成“有道德的机器”(moralische Maschinen)——就像我们教会我们孩子进行有道德的行为那样。这种观点认为,机器人融入社会互动过程的次数越频繁,教会它们社会互动过程的核心要素(我们称之为道德)就越重要。还有一个原因,即机器人变得越来越自主。过去的机器人基本上都是静止的,只有在人类引导下才能在空间中移动,现在则可以自主移动。这意味着机器人正在变得越来越独立于人类,不仅限于制造过程。某些电池供电的机器人(主要是吸尘器)已经能够自己连接电源进行充电。机器人不再需要等待人类将其重新连接电源;它可以自行完成此操作。但自主性也意味着机器人始终会做出未事先编程的反应。不同于对机器人进行编程、使其始终执行某项操作,人们可以对机器人如此编程:它自己处理大量变量,然后以特定方式行事。众所周知,“机器人”一词源自捷克语,意思是“体力劳动”或“强迫劳动”。就此而言,机器人可以被视为一种机器,其主要目的在于从事体力劳动,从而使人类从这些劳动中解放出来。在此种视角下,机器人与人类几个世纪以来制造的许多其他机器并无区别。然而,机器人的独特之处在于其拟人化特征。并且,即使没有拟人化特征,它们至少有动物化的特征。机器人与人类或动物之间的相似性主要在于其外观。近年来,机器人设计师成功地制造出了非常像人类的机器人(至少从一定距离来看),以至于人们不会注意到它们不是真正的人类。在从外部感知的行为层面,(机器人)与人类或动物的相似性也取得了巨大进展,例如机器人可以移动、说话等。在对外部刺激的反应方面,同样也取得了显著的进步。机器人可以执行口头命令,甚至可以与人类言语互动。此外,机器人可以“识别”一个人所处的情绪状态,然后根据这种状态做出相应的反应。前述最后两个领域的进展提出了一个问题:是否有一天人们将无法制造出有情感的机器人,它也可以就自己的行为自主作出事先未编程的决定。不过,为什么我们要制造越来越像人类的机器人呢?在此,人们必须区分外部和内部相似性;在外部相似性情形,则必须区分外观和行为相似性。然而,这两类相似性不仅仅涉及技术能力的证明。如今,类人或动物的机器人不仅是一次性设计,其目标在于大规模生产。预计未来几十年,此类机器人将越来越多地出现在我们的日常生活中。如果这样,那就意味着在我们的日常生活中,我们不仅看重机器承担任务的能力,还非常重视它们尽可能地不再仅被视为纯粹的机器。这在性领域尤为明显。非人类的性伴侣越像人类,人们就越相信自己正在与人类发生性交,并且性满意度可能就越高(至少推定如此)。人们可以在充气娃娃领域发现类似的发展,但这种发展有其局限性。其中一些限制可以通过完善机器人来消除,例如玩偶的性被动性。机器人可以被编程为主动进行性交。一些作者认为,此类机器人的开发可以为卖淫问题提供长期解决方案。对相似性的愿景在医疗领域也能被较容易地解释,此时,重点主要是与动物的相似性。使用类动物机器人进行治疗比使用纯粹“类机器”机器人更有效。因此,类动物机器人将取代在治疗中偶尔使用的静态毛绒动物玩具或真实动物。这同样适用于类人机器人——它可以照顾病人或老人。在性和医疗领域,机器人能够避免自然生物中常见的、可能妨碍目标实现的问题。因此,女机器人永远不会患偏头痛——除非她被编程为有时会假装患上偏头痛——而且她也不会怀孕。此外,性病的传播风险也被消除。还有一点,人们对机器人没有义务——至少现在还没有。看看用作治疗的机器猫,它具有不会意外抓伤任何人或突然逃跑的优点。进而言之,从经济角度考虑,在护理领域投资机器人虽然初期成本较高,但长期来看,其维护成本低于人类护理人员,因此投资回报较快。如果机器过去主要用于狭义上的工作,那么今天它们越来越多地用于服务,并且在许多此类服务中,“服务者”的外观会对服务的成功起到作用。如果我们只是要将一件货物从地点A运送到地点B,那么机器是否类似于驮畜对我们来说并不重要。然而,对于某些服务来说,情况并非如此。如果我们因此决定不再由真人,而是由机器人提供相关服务,通常情况下,除了让机器人与人类或动物之间的相似度越来越大,似乎我们没有其他选择——假如我们对可能的最有效的服务感兴趣(通常可以假设如此)。然而,正如前文所暗示的那样,这种相似性通常只限于与所涉服务重要的属性,并因此不考虑可能妨碍成功完成服务的所有其他属性。当我们使用机器人提供某些服务时,我们不仅希望它们能够将我们从相关服务中解放出来,而且还希望它们能够比普通人一样好地完成工作,甚至不会更好——即没有瑕疵的。如果因此谈论到最大可能的相似性,那么应明确,这只是最大可能的选择相似性。当我们想到,机器人须作出与道德相关的决定或从我们的角度来看与道德相关的决定时,选择相似性的问题就会以一种尖锐的方式出现——机器人是否也将这些决策视为具有道德相关性,这是另一个问题。特别是用于军事目的的机器人可能会面临一些人类可能经历的情况,而这些情况可能会引发道德困境。一个著名的案例是,一小群美国士兵在阿富汗山区执行秘密特殊任务时被一名牧羊人发现。这些士兵面临的抉择是:是否冒着牧羊人可能通知塔利班的风险放他离开,或者选择杀害他?想要抓住他是不可能的。士兵们决定放他走。几个小时后,他们遭到塔利班的袭击。此时,我们面临的问题是,什么决定了我们的道德决策,以及应当由什么来决定这些决策。大致上,这里可以区分两种模型:逻辑中心论和情感中心论。第一个模型将实践理性视为道德行为的唯一合法起源,与此同时,第二个模型将这种行为直接与情感或更一般性地与感性动力联系起来,例如斯密的同情或叔本华的怜悯。如果我们从道德决策过程的纯粹逻辑中心论模型出发,像康德那样,将一种行为的道德性取决于我们是否会在没有倾向的情况下执行它,那么我们可能会考虑设计没有情感和倾向(即不受情感性决策因素影响)的机器人。尽管康德没有断言情感性决定因素不能在行为决定中发挥作用,但他确实说,它们无论如何不能是必要的决定因素。这些因素在决策过程中的存在可能会引起人们对该行为道德性的怀疑,因为我们无法确定,即使我们没有这些因素,是否还会进行该行为。如果机器人仅受理性决策因素影响,而不受情感性决策因素影响,那么这种质疑就不会存在。康德将只能由理性原因决定的存在称为自主存在。对他而言,自主存在因其价值而非价格而具有尊严,因而应受到绝对尊重。在此意义上,机器人是自主存在吗,或者有一天可以建造出这种自主存在的机器人吗?新机器人与旧机器人的区别在于,新机器人能够进行人类在类似情形中预期采取的行为,而该行为完全能被视为有道德的行为。情景1:阿富汗山区的人类必须自己决定如何对待牧羊人。场景2:阿富汗山区有遥控机器人,它们行为的决定是由处于几百公里外控制中心的人作出。场景3:阿富汗山区有一些机器人,它们经过编程,可以根据外界提供给它们的信息作出“决定”。它们的程序说:不杀害任何不对你们构成威胁的人!在前两种情况下,直接作出决定的是人类。然而,存在一个关键区别。无论第一个场景中的士兵多么勇敢,都很难假设他们不会担心自己的生命安全,也不能假设他们不会怜悯牧羊人。在第二种情况下,控制者不会担心自己的生命安全,因为他们不直接面临决策的后果。然而,人们可以假设他会怜悯牧羊人。接下来我们来看第三种情况。此时,机器人会如何行动?它们会不会射杀牧羊人?它们肯定会考虑牧羊人通知塔利班它们存在的可能性。它们也会为这种可能性计算出一定的概率。但这个概率是多少,又是如何确定的?它们以多大的概率得出存在危险的结论?假设它们确定了这样的危险:他们会射杀牧羊人吗?最后,它们被编程为不会杀害任何不对它们构成威胁的人,也不会杀害每一个对它们构成威胁的人。当然,人们可以将它们进行这样的编程,就像对它们可能以两种方式进行编程一样。但是,在这种情况下,一个机器人可能如何决定,尤其是它可能如何作出一个决策呢?一个机器人内部具有两个相互矛盾的行动指令,但没有明确规定优先级,会发生什么情况呢?诺埃尔·夏基(Noel Sharkey)认为,人们不应允许自控军用机器人执行杀戮任务,因为机器人无法区分战斗人员和非战斗人员,也无法区分危险和非危险对手。具体而言,这种区别的前提是人们能够认识到对方的意图,根据夏基的说法,这就预设了人们具有一种(即使是隐含的)心理理论。以我们所提案例为例,机器人应能识别出阿富汗牧羊人的身份;它们还应能够推测阿富汗牧羊人的意图,这又要求它们对地缘政治局势和当地人对塔利班的态度有足够的了解。此时就提出一个问题,一方面,机器人是否能够拥有必要的信息,另一方面,它是否拥有处理这些信息的必要经验。无论人们在伦理决策中赋予信息拥有的重要性有多大,经验仍然是一个不可忽视的因素。它构成了我们处理信息、然后作出决定的背景。虽然夏基认为不应该建造用于杀人的军用机器人,但洛克豪斯特(G. J. Lokhorst)和凡·登·霍芬(J. van den Hoven)认为机器人比人类人能够遵循明确规则,但它们并不擅长理解社会背景和预测可能的意图。”更可靠,而且总的来说,它们杀死的人数比人类士兵少。他们确信,我们对机器人行为的编程控制比对训练有素的人类士兵的控制更为精确。如果人们对机器人进行编程,使其不会杀死任何没有直接用武器威胁它的人,那么它就不会杀死这样的人。这对于人类士兵就不同了,他们承受着持续的压力,有时会“神经失常”。在我们讨论是否应该赋予机器人权利的问题之前,这里最后需要问的一个问题是,我们可以做些什么来保护我们面对机器人的自己的权利。朔伊茨(M. Scheutz)认为,纯粹理性的机器人可能利用我们的情感联系来操纵我们。也就是,虽然我们可以在情感上与机器人建立联系,但机器人对我们却不如此。为避免这种情况,他建议:“此时可能需要采取(一个)激进的步骤,即为未来的机器人赋予类似人类的情感和感觉。”朔伊茨的想法是,情感最终会阻止我们伤害他人,哪怕这样做对我们有利。人们如果希望避免机器人操纵我们,就必须为赋予它们类似人类的情感或与人类情感同等的功能。若机器人有一天要成为道德决策者,那么仅仅扩展它们的人工智能以使其也包括道德上的智能是不够的,还必须赋予它们人工情感——或至少在功能上等同。因此,我们可能拥有一个机器人可能遭受苦难的世界,这将引发我们是否也须赋予它们权利的问题。朔伊茨认为,保护我们免受机器人伤害的同时,也应考虑保护机器人免受我们的侵害。杰里米·边沁(Jeremy Bentham)认为,一个存在是否会思考或说话并非与伦理相关的问题,而是它是否可以感觉,尤其是否可以感受痛苦。在他眼中,许多动物都是有感受痛苦能力的存在,因此在功利主义计算中须考虑到它们的福祉。机器人会感受痛苦吗?我们可以将痛苦概念化,使其只能应用于具有例如神经系统的有机元件(Hardware)存在。因此,通过语义上的巧妙手段解决了一个形而上学问题——或已经解决了。但现在的情况是,人们在意识到其他生物的痛苦能力之前,并没有等待解剖学和生理学的发现。通常的痛苦概念是现象学的,即它基于我们体验环境中众生的方式方法以及我们与它们之间的相互认同程度。人类之所以觉得某些未知动物会感到痛苦,而不认为某些未知植物会痛苦,并不是因为我了解这些生物的内部构造,而是因为我所观察到的现象。这里必须考虑的另一个因素是互动,它既是认同的结果,也进一步加深了认同。我们不应该像边沁那样问一个存在是否会感受痛苦,而应该问我们是否以及在多大程度上可以与一个存在互动和认同,其中外表和行为都发挥着作用。恰恰由于这种互动和认同,我们才认为生物具有感受痛苦的能力。此存在是否能真正感受痛苦的问题实际上无关紧要。正如康德所言:我们在一个存在中所感受的并非痛苦本身,而只是对于我们的痛苦,而对于我们的这种痛苦显现于与该存在可能的互动中。这个存在的内部发生了什么,首先取决于该存在与我们的关系。这种关系部分是由进化过程中出现的先天机制决定。我们对动物的外观和互动方式的认识非常有限。我们可以饲养和训练动物,最近还可以对它们进行基因操纵,但目前我们还无法创造出一种动物,使其像一些现在的机器人一样拥有类人的外观和行为。我们必须接受动物的自然状态。然而,在谈到机器人情形,我们面临着一个基本的选择:我们有能力创造机器人且迟早须赋予其权利,因为至少对我们来说,它们满足作为权利归属依据的条件。无论机器人作为一个本体性存在是什么以及它与我的本体性自我有多大的不同——作为一个我所能接触到的面对我的现象性存在,它有朝一日在所有相关方面都可能与我赋予其权利的那些现象性存在相似。人们肯定会反驳说,机器人由无机物构成,而迄今为止我们赋予权利的存在始终是由有机物组成。但构成生命体的物质本质是否应与道德相关呢?如果有一天我们能够接触到来自另一个星系的生物,并且事实证明我们可以与这些生物如同人类同胞之间一样进行最重要的互动,那么我们真的会将对权利的认可取决于生化分析吗?即使构成生物的物质性质与道德相关,仍可指出,人们已经在尝试建造其中央控制系统(其大脑,如果可以这样说)由有机物质构成的机器人。最迟当第一批生物机器人到来时,我们将面临这样的问题:我们应该如何有道德地对待它们以及我们是否也应赋予它们权利。从康德的角度来看,人们可能会反对说,只有能够将自己视为本体存在的现象性存在才值得被视为道德存在。但我们如何知道一个现象性存在是否可以将自己视为本体性存在呢?这些知识难道不是来自我们与这个存在的互动吗?但对于我们来说,互动总是在世界上发生,即在现象层面。因此,关键不在于现象性存在是否能真正自我认同为本体存在,而在于它的行为是否让我们有理由相信它能如此认同。当机器人在其与我们日常互动中的行为方式使得我们不再有充分的理由否认它们的本体自我时,我们就会将其归为本体性存在。但是,正如另一个可能的反对意见,机器人最终不也只是一台机器吗?这表明,机器人不具有任何典型的人类特征。我们有时不也会形容某些人像机器一样行动机械、可预测,缺乏感情和自发性吗?毫无疑问,目前机器人实际上还只是机器。然而,现在机器人领域的进步让我们面临着一个问题:我们是希望拥有仅作为机器的机器人,与之互动有限,还是继续沿着现有道路前进,最终可能达到一个点——斯帕罗(R. Sparrow)描述如下:“当我们无法让机器人死亡时,机器人将成为人类,无需面对我们在 考虑是否让一个人类死亡时所面临的相同道德困境。”然而,这里必须问 的问题是让一个机器人死亡到底意味着什么。斯帕罗至少应该为“死亡”这个词用引号标注。这里所提及的问题只出现在哲学家身上,这一事实可以从美国防止虐待机器人协会(ASPcR)的存在——自1999年以来——以及韩国在近10年将机器人免受破坏和虐待的保护纳入法律的考虑中看出。今天,我们面临着一个根本问题:我们是否应该继续努力制造最终在道德方面或至少在本质上与人类没有区别的机器人,或者我们是否应该追随当前的趋势终止机器人技术。另一个相关问题是:我们是否希望机器人承担越来越多以前只有人类才能执行的工作和服务,因为这些工作和服务的完成以前需要只有人类拥有的技能?我们仍然可以将病人护理中不太有吸引力的方面留给人类,但我们也可以将这些服务交给机器人。但若我们将这些服务交给机器人,我们就须面临一个问题,我们是否应该让这些机器人尽可能类人,以便病人在所有相关方面都能得到同等的服务——如果不是更好的服务。在装配线上制造汽车的机器人是否与人类相似并不重要。但照顾病人的机器人是否看起来像人类、行为是否像护士,则至关重要。凯特·达林(Kate Darling)在接受《世界报》采访时表示,玩具行业正推动制造能够与我们建立情感联系的机器人。回想前二三十年,当时所谓的“电子宠物(Tamagochi)”让那些忘记“喂”它们的孩子们泪流满面,因为电子宠物“死了”。对于达林来说,玩具行业——但有人可能会补充说,整个机器人行业——拥有如此强大的力量,以至于人们再也无法停止其发展。孩子们越早在互动中与机器建立情感联系,他们对机器的认同感就越强。无论我们如何重视探讨如何保护自己免受机器人的伤害,我们都应该将这个问题与另一个问题联系起来,那就是我们如何保护自己免受生产这些机器人的工业的影响,而这些机器人对我们的影响也将受到保护。因此,机器人伦理超越了人类如何塑造未来的问题。也许达林和其他人正确认识到发展势不可挡。但必须注意到,这种不可阻挡并不具有纯自然事件的特征。然而,如果人们共同努力,这种趋势仍有可能被改变。
赵丹|国际投资仲裁裁决的司法审查及中国企业应对——以新加坡司法实践为例
池梓源|国企改制后股份合作制企业性质刑事认定的困境及解决路径
王殷舟|刑事被害人精神损害赔偿:正当性证成与实现进路
目录|《上海法学研究》2024总第11卷
雷娜特·肖伯 张韬略 译|使用人工智能构成义务侵害?论使用生成式人工智能的注意义务
彼得·霍莫基等|大型语言模型及其在法律中的可能用途

上海市法学会官网
http://www.sls.org.cn
