法国与欧盟的机器人监管之道

发布时间:2019-09-11 16:49:44   来源:东方头条   点击:
欧洲立法者对于机器人的态度,一是肯定其对人类社会的有用性,肯定相关学科对于创新经济的助益;二是希望从法律上把控机器人可能

欧洲立法者对于机器人的态度,一是肯定其对人类社会的有用性,肯定相关学科对于创新经济的助益;二是希望从法律上把控机器人可能对人类造成的风险,要求机器人尊重人类社会的人文价值及民主社会的规则

申军

《列子·汤问篇》中说,周穆王西游巡狩时,工匠偃师携其所制人偶去见他。人偶栩栩如生、能歌善舞,穆王误认为其是真人。不想,它后来用眼神招惹穆王的宠妃,险些给偃师招来杀身之祸。

这个人偶,与当今人们口中的机器人颇有相似之处。对法律人来说,上述故事带给我们的,更多是对机器人法律监管的相关思考。以下对法国及欧盟的相关监管现状试作评析。

机器人应使人增强而非将人取代

截至目前,法国的法律中没有明确直接针对机器人的监管原则。不过,法国1978年颁布的《信息技术与自由法》第1条就开宗明义地指出,信息技术应服务于每个公民,其发展应在国际合作的框架下运行,不应给人类的身份认同感、人权、私生活、个人或公共安全带来损害。

法国国家信息技术及自由委员会(CNIL)在2017年12月发布的有关算法和人工智能的伦理事宜的报告中,也引用了上述法律的这一总体目标,并主张确定一些基本原则,以保证人工智能可以服务于人,使之增强而非将之取代。

为此,CNIL阐述了其认为可行的两种基准性原则,其中之一为警觉性/反思性原则。该原则对揣度未来机器人在法国的监管应该颇具参考价值。

CNIL认为,具备学习能力的算法有着不稳定性和不可测性。此外,由于算法系统的分格化及环节化的特点,在损害发生时引发的责任可能会被漠视、忽略及被稀释。其次,人类对于算法和机器的效能存在过分信任的认知倾斜。对这些挑战的警觉性/反思性,应为对算法及人工智能加以监管之基本原则。

就欧盟层面而言,2017年2月,欧洲议会通过的有关机器人之民法规则的决议(以下简称《机器人之民法规则》),对机器人的监管原则作了相应的阐述。

该决议认为,一方面,有必要将阿西莫夫的机器人定律适用于机器人的设计者、制造者、操作者,直到这些定律能被转化为机器语言直接适用于机器人本身。另一方面,有必要针对机器人确定一系列的规则,尤其是在责任性、透明性、可归咎性等方面。同时,相关规则应折射出固有的欧洲及普遍的人文价值,但又不应影响机器人学的研究、创新及发展进程。

显然,欧洲立法者对于机器人的态度,一是肯定其对人类社会的有用性,肯定相关学科对于创新经济的助益;二是希望从法律上把控机器人可能对人类造成的风险,要求机器人尊重人类社会的人文价值及民主社会的规则。

不主张对机器人法律人格“一刀切”

在现行的法国法中,机器人没有像自然人与法人一样被赋予法律人格,而是被视为没有法定定义的“bien”(财产,即人类可以对其拥有所有权的“物”)。没有法律人格,意味着机器人没有缔结合约的权利,亦无进行民事诉讼的权利。而具备法律人格,则机器人就从法律意义上的客体转变为主体。

值得留意的是,2019年3月,由一些法国大学的法律学者发起的有关动物法律人格的宣言(又称《土伦宣言》)发表。该宣言要求在法国民法典中特别为动物创设法律人格,即其应被认为是“非人类的自然人”(人的英文person源自拉丁文的persona意即“面具”一词,可指己方或他方)。因为正如在2012年7月《剑桥宣言》所称,非人类的动物同样拥有感觉的神经基元。而未来机器人是否会在具备自由意志时,亦能被倡议赋予相应的法律人格,值得观察。

就欧盟范围来讲,上述《机器人之民法规则》要求欧盟委员会从长远角度出发,为机器人创立一种特殊的法律人格,以便至少最先进的自动化机器人能被视为可究责的“电子人”,必须赔偿给第三方造成的任何损害;并可以考虑授予任何作出自主决定或与第三方独立互动的机器人“电子人格”。

据此,如下观察可用来解析该规则对相关问题的立场。其一,在未来的一段时间,机器人在欧盟法下将不会具备法律人格,相关议题交由各国决定;或有的法律真空,可能需由指导性意见或行为准则填充。其二,欧洲议会并不主张对机器人的法律人格问题“一刀切”,而是赋予一部分机器人拟制人格,目的是确保能有相应的的法律主体对引起的第三方损害作出赔偿。其三,相关赋予机器人“电子人格”的认定标准,在未来的细则化不可或缺,以使之具有公信力。

可引入保险基金为机器人所致损害买单

法国法律中,目前对机器人担责并无相关规定。因此机器人对其行为或不作为而造成第三人的损失,不承担任何法律责任。若因产品的缺陷导致损害,依据法国民法典第1245条及其后续条款,其制造者应对此负责。考虑到机器人的特性,除了制造者之外,相关设计者、编程者、使用者、所有者以及雇佣者也可能需要承担责任。

在欧盟层面,《机器人之民法规则》对机器人引发的民事责任作出了相关规定。

其一,至少就决议出台时的阶段来说,相关的责任应该归咎于人,而非机器人。其二,欧盟委员会应该确定将要适用的责任评估战略,其或是建立在严格责任之上(即仅需证明损害已然发生,机器人的运作与受害方的受损之间存在因果联系),或是建立在风险管理之上(即个人应该担责的并非是草率行事的人,而是在某些情势下,那些有能力减少风险及处理负面效应的人)。其三,一个机器人的自动化程度和学习能力越高,受培训的时间越长,在其导致对他人的损害时,对其进行培训的人需要承担的责任份额就越大。

基于将相关损害归咎于自主性越来越强的机器人变得日臻复杂,欧盟委员会应就针对特殊种类机器人的强制保险制度进行评估,即机器人的制造者或所有者必须进行义务投保;并对设立专门的赔偿基金进行评估,以对没有被义务保险涵盖的机器人引起的损害予以赔偿。

作为数据处理分包者的机器人

毋庸置疑,机器人在执行职能的过程中,会收集到各种各样的数据,包括个人性质的数据。

基于欧盟《通用数据保护条例》(GDPR)及相关法国国内法的规定,无论是数据处理负责人或分包人,都必须至少是自然人或法人。因此,即便目前机器人履行的实际上是数据处理分包者的角色,其法律人格的缺失,使其不能拥有相应的法律定性。

值得思考的是,如果未来机器人通过自我学习,具备自主搜集、整理、归类及储存各类信息的能力,尤其是具备决定“为何”和“如何”处理个人数据的能力,其履行的将是数据处理负责人的角色。这会不会导致GDPR在必要时需对相关法律定义作出修订,以应对机器人在个人数据处理方面的责任承担问题呢?此点值得关注。

另外,是否及如何控管此类机器人掌握的个人信息在机器人之间被自行分享,如何防止此类信息不被信息骇客篡取以作不法用途,也是需要思考的监管挑战。

最后需要指出的是,机器人的英文“Robot”源自斯拉夫语,其词根“Rabota”有劳作、苦役之意。这似乎可将人类创造机器人的初衷解读为:在人类掌控的范围内,命令机器人替代性地从事一些原本人为的体力劳动。

而随着人工智能等前沿科技的飞速发展,目前人类面临的最大风险可能是:具备自我学习能力的机器人,其深度学习的能力,可能大大超过人类的预期;它们之间相互进行学习的能力,亦可能大大超出人类的想象。这类机器人代表的不可预期及不可控制性,不啻为包括法国及欧盟在内的监管当局面临的巨大挑战。

如果说列子撰写的偃师之巧的故事,布拉格流传的黏土人偶戈仑的传说,都是旨在显示人类有能力最终控制机器人,那么,倘若人类必须在未来和其所创造的机器人共存于一个社会之中,而又要对其作出合适有效的监管,这将会不会是人类继续提升自己智能的契机呢?

(作者系法国执业律师)

责编:高恒涛

------分隔线----------------------------