针对人工智能技术的商业开发和应用监管,科技公司和政府监管者正在全球激烈博弈。欧盟的监管者就要求科技公司确保其人工智能产品在开发时就采用一些减轻潜在危害的方法。
监管者的责任义务能否通过设定规则顺利实现?奥斯陆和平研究所(PRIO)研究员Samar Abbas Nawaz用一篇文章分析了其间存在的现实挑战。《互联网法律评论》今日摘译该文核心观点,供读者参考。
“谁该为人工智能(AI)系统造成的伤害负责?”是人们在使用人工智能系统时的普遍担忧。欧盟委员会自从2021年提出要对人工智能系统进行监管后,目前正在设法解决这个关键的责任问题。
监管人工智能技术的安全使用并不是一件容易的事,但是确保人工智能系统的安全使用对立法者来说是至关重要责任。根据拟议的两项指令(directives),欧盟委员会旨在通过强加责任的规则来保护人工智能的受害者。因此,我们有必要分析这些规则在多大程度上解决了责任问题,并使受害方更容易就所造成的损害获得损害赔偿。
2020 年,欧盟委员会发布了一份关于人工智能的白皮书,承诺解决与使用人工智能系统相关的各种风险。随后在 2021 年提出了一项提案——《人工智能法案》(AIA,目前尚未通过)。
拟议的法案通过区分被禁止的和高风险的人工智能系统,提出“对个人的有害风险降至最低”的重要要求。“被禁止”的人工智能系统包括实时生物特征识别、社会评分或操纵性人工智能系统(第 5 条)。更严格的要求适用于高风险人工智能系统。“高风险”人工智能系统受欧盟统一法规(第6条)的合格评估要求的约束,有更严格的要求——这些系统只有在符合规定的风险管理系统、透明度、人工监督、适当的数据质量和有效的网络安全要求的情况下才能使用。
但是,一旦这些风险成为现实并且有人受到伤害,后果如何?如何追究相关责任?为了解决这些问题,欧盟委员会最近提出了两项指令:即《人工智能责任指令》(AILD)和修订后的《产品责任指令》(PLD)。当人工智能系统造成伤害时,AILD为证明某人的错误铺平了道路。用法律术语来说,它可以被视为一种“基于过错的责任”机制。修订后的 PLD 在损害是由 人工智能系统的缺陷而不是由于某人的过错造成的情况下很有用。因此,它建立了“无过错责任”规则。这一努力背后的想法是增强公众对人工智能技术的信任,并为参与开发这些系统的企业提供法律上的明确性。
AILD 的内容主要包含了人工智能系统之于受害者的两个假设,以及信息披露。
在拟议的指令中可以找到两个假设:一种适用于不遵守注意义务,另一种适用于过错与输出之间的联系,称为“因果关系推定”。
简单来说,“因果关系推定”假设人工智能系统造成的损害是由于提供者或用户的过错造成。如果提供者或用户(无论案件中的被告是谁)——即使在国家法院下令披露后——仍未提供有关相关系统的信息,则该推定生效。“供应商”在 AILD 框架的背景下,被定义为制造商或任何以自己的商品名称将给定的人工智能系统投放市场的机构。“用户”可以是在其授权下使用人工智能系统的任何人。
然而,被告可以通过举证来推翻这一因果推定——人工智能系统可访问信息足以证明是系统的错误(如果有的话)。如果供应商违反了相关法律规定的注意义务,以及AIA有关数据质量、透明度、人力监督、网络安全的任何要求,或在发现故障时未退出给定系统,则供应商将承担责任;另一方面,如果用户违反使用说明或将系统暴露于不相关的输入数据,则用户将承担责任。
关于如何提供有害的人工智能系统信息,AILD 允许受害者通过国家法院寻求信息披露(第 3 条)。为确保人工智能系统的透明度,拟议中的AIA第13条也有关于信息披露的类似规定。这些要求之间的主要区别在于:AIA 要求是针对系统用户的,而 AILD 要求向任何受 人工智能系统伤害的受害者披露信息。因此,AILD 旨在使索赔人更容易根据所披露的信息证明过失,从而为所遭受的任何损害寻求赔偿。例如,如果民用环境中的人工智能无人机发生故障并伤害旁观者,那么旁观者可以根据自然人的过错要求赔偿。AILD将允许索赔人从其供应商或用户那里寻求有关无人机的信息,以确定故障。
《产品责任指令》(PLD)于 1985 年通过,在应用于人工智能系统时存在一些缺陷,因此早就应该对 PLD 进行修订。此次修订版的一个重要方面是将软件纳入其应用范围。这被视为背离了传统立场,即只有产品的制造商或进口商可以承担责任,而不是软件开发人员。与 AILD 相比,修订后的 PLD 允许基于产品缺陷而不是基于过错来追究提供商的责任。因此,如果人工智能驱动的无人机因某些缺陷对任何人造成伤害,则索赔人可以根据修订后的 PLD 寻求补救。
PLD第 9 条承认两种推定:缺陷推定,缺陷与损害之间存在因果关系的推定。在以下三种情况下会触发“缺陷推定”:
供应商未披露系统信息;
索赔人证明了系统的明显故障;
索赔人表明供应商违反了安全规则
如果损坏与缺陷“典型一致”,因果关系的假设就会启动。如果系统的技术复杂性导致难以识别缺陷,则可以同时做出两种假设。然而,为了能够依赖这些推定,索赔人仍然必须证明存在缺陷的可能性以及产品造成损害的可能性。但是,供应商可以通过证明不存在这种过度的技术困难来反驳上述假设。
对以上两个指令——特别是AILD——的批评之一是,尽管提供了相关信息,但仍然很难证明复杂的人工智能系统故障。特别是,一些人工智能系统的行为是自主的,它们的功能很复杂,任何输出的原因都不容易理解。这一挑战涉及“黑箱”算法问题,当人工智能系统导致难以理解的特定结果的信息输入时,就会出现这种问题。在这种情况下,即便能够提供足够的系统信息,这对受害者是否真的有好处?
尽管提议的 AILD 在引言中提到了自治对于理解系统是一个问题,但该指令几乎没有使受害者更容易建立因果关系的假设。根据 AILD,受害方仍将面临沉重的举证责任:从提供证据支持索赔的合理性,到确定不符合 AIA 要求,并证明人工智能系统的行为与所遭受的损害之间存在联系。
证明不符合AIA 中规定的要求也可能非常困难。例如,要证明用于开发人工智能系统的数据集或给定系统的准确度水平确实不足,可能并不容易。因此,提议的 AILD 充其量是为受害者提供非常有限的程序便利。需要做更多的工作来有效地促进人工智能造成损害进而可获得的补救机制。
处理此问题的一种方法是,修订后的 PLD 使用基于缺陷的补救措施,无需证明过错。但是,根据 PLD,只有在发生实质性损害的情况下才能寻求赔偿。这意味着,任何金融机构的信用评分系统都不能因为存在缺陷而受到挑战,因为这些系统可能不会以实质性的方式伤害个人。在这种情况下,受害的人必须通过 AILD 证明过错才能获得赔偿。欧洲消费者组织 (BEUC) 副主任 Ursula Pachl在谈论拟议指令时已经表达了这种担忧——欧盟委员会的做法对开发商更有利,其中一些人反对在准备这些提案期间对非实质损害承担严格责任。
除此障碍外,PLD 还要求索赔人证明由于系统缺陷而造成损害的可能性,以利用缺陷推定。这就提出了一个问题,关于索赔人必须满足的可能性的参数,特别是当给定系统太复杂而无法理解时。
欧盟委员会提议的AILD,主要是为以人工智能系统的信息来确定责任提供了便利。在某种程度上,这对 人工智能系统的透明性要求提出了硬性要求,该要求也包含在提议的 AIA 中。然而,在这样做的同时,拟议的责任指令也给索赔人带来了一些需要克服的棘手障碍——是否必须确定缺陷和因果关系的过错或假设,以及损害与缺陷或过错之间的联系。
欧盟委员会的提案处于最初的立法阶段,可能会在最终通过之前进行各种修改。而且,拟议 AIA 的潜在修改也可能仍会改变拟议责任指令的实施,因为这些指令依赖于 AIA 中规定的定义和要求。
确立人工智能责任的立法努力是朝着有效监管人工智能的正确方向迈出的重要一步。然而,仍然有必要对人工智能系统所涉及的复杂性保持谨慎,特别是当目标是保护受害者时。
原文链接:https://europeanlawblog.eu/2022/11/07/the-proposed-eu-ai-liability-rules-ease-or-burden/
作者简介:Samar Abbas Nawaz 是奥斯陆和平研究所 (PRIO) 的博士研究员。Samar 目前从事欧盟的无人机监管研究。
免责声明:本文撰写所需的信息采集自合法公开的渠道,我们无法对信息的真实性、完整性和准确性提供任何形式的保证。本文仅为分享、交流信息之目的,不构成对任何企业、组织和个人的决策依据。
本文来自微信公众号“Internet Law Review”(ID:Internet-law-review),作者:SamarAbbasNawaz,翻译:《互联网法律评论》,翻译36氪经授权发布。
相关推荐
欧盟计划提振当地科技企业 遏制美国科技巨头
如何让人工智能“负起责任”?盯住隐私合规
欧盟将全面改革互联网规则 对小企业和巨头差异监管
欧盟成员国批准版权改革 谷歌FB审核责任更大了
促进or限制?盘点全球人工智能政策趋势及贸易壁垒
欧盟计划起草人工智能法规,引硅谷高层纷纷造访抛橄榄枝
外媒报道:Twitter因数据泄露或将受到欧盟制裁
不要对人工智能严防死守
我们需要什么样的数据跨境规则?
矛盾或进一步升级,欧盟寻求新权力惩罚科技巨头
网址: 拟议的欧盟人工智能责任规则:轻松还是负担? http://m.xishuta.com/newsview66020.html