1. 问题的引出
“人工智能”(Artificial Intelligence, AI)现在频繁出现在各类新闻中,例如人工智能应用范围的拓展1、人工智能相关政策的出台2等不断的冲击着人们的神经,提醒人类已经进入人工智能时代。一方面,从技术发展趋势来看,当前的强人工智能可以通过不断学习、训练,能自主思维、有感觉甚至感情,其将更加深入地融入我们的生活进而对人类社会产生深远影响,是可预见的。另一方面,现有人工智能技术的应用,为人类提供生活便利,但同时也引发一系列问题,例如自动驾驶汽车发生交通事故时责任承担、AI仿真人唆使他人自杀、机器人杀人事件等 [1] 人工智能因为意外、或自身的过失或故意而产生的侵权事件。对于科技界而言,需要针对这些问题,对人工智能技术进行进一步的精进。而对于我们法律界而言,则有必要对这些问题所产生的侵权责任分配的争议进行深层分析、解决。因此,人工智能对现有法律制度提出了挑战 [2] ,要求我们重新审视当前人工智能的发展程度并对其定位,为人工智能“定制”一套侵权责任制度,来应对各种人工智能致害事件,以实现人工智能技术发展是为了服务于人类生产生活的初衷。
对于新事物,法律固有的滞后性,社会的保守性,以及民众观念革新的缓慢……诸多因素使得立法相当谨慎,以至于新事物出现乃至其引发社会问题也只能套用既有法规,甚至某些现有问题无法利用既有法规解决。在人工智能方面,这句话所反映的就是相对于人工智能技术的飞速发展,相关法律的更新却是如此缓慢,以至于面对人工智能的侵权事件上的责任分配存在诸多争议:套用既有的产品侵权责任足以解决在人工智能并不那么先进时存在的简单侵权问题,在人工智能飞速发展的今天,侵权问题无法简单的套用现有产品侵权责任制度来一概而论的解决,于是复杂的问题的解决总是伴随着争议或干脆无从应对,留下一地鸡毛。在人工智能时代,人工智能的种种问题对现有法律带来的挑战是根本的、不可避免的,针对现有或将有的人工智能致害纠纷进行理性的分析与立法是迫切的,立法者不能为谨慎情绪绊住前进的步伐。
2. 人工智能概述
1956年人工智能(Artificial intelligence, AI)在达特茅斯会议(Dartmouth Conference)上首次出现 [3] 。但直至工业技术完备的1990年后,人工智能技术才迎来真正意义上的蓬勃发展,产生了诸如语音助手、自动驾驶汽车、智能化武器系统、无人机等等各式各样的人工智能应用。在近年的发展中,基于汽车、手机、智能家居等科技行业对人工智能的应用大幅增加,不仅使得人工智能有了更多的用武之地,更使得人工智能基于主产业的迭代升级而得到了更为全面的技术发展。依据其智能水平,人工智能可分类为三类,即超人工智能(Artificial Super Intelligence, ANI)、强人工智能(Artificial General Intelligence, AGI)、弱人工智能(Artificial Narrow Intelligence, ASI) [4] 。
2.1. 弱人工智能
现阶段普罗大众能够接触到的人工智能皆属弱人工智能。弱人工智能的能力范围仅仅是在部分领域完成某一件事情,例如家装设计、国际象棋、驾驶汽车、智能搜索等。可见,弱人工智能只能适用于单方面工作,并不能像人类一样可以负责、完成不同类型的工作。
2.2. 强人工智能
当人类为其构建目标后,它可以多任务同时处理并完成工作,甚至可能在某方面完全超过人类,完成一些人类无法完成的工作。但目前对其的研究尚未出现突破性进展。
就目前的实践状况而言,有不少人工智能已然超越了弱人工智能阶段。该种人工智能并不完全由创造者和使用者控制,还拥有一定的自我学习能力,能根据实际情形作出独立的判断,但不会作出独立的意思表示 [5] 。虽然算不上完全的强人工智能,但介于强人工智能与弱人工智能之间,暂且认定为中人工智能,归类在强人工智能中。
2.3. 超人工智能
超人工智能是指在所有领域都类似于人甚至领先于人的人工智能 [6] 。但就目前而言,超人工智能依旧是一种美好的设想,在本世纪结束前难以有实体产品被设计生产出来。
鉴于技术发展在客观上的桎梏,超人工智能离现在依然过于遥远且无法预测其特性和行为模式,我们暂时没有必要将其提上议事日程,故本文中所研究的对象仅限于弱人工智能与有期待性的强人工智能(当然包括介于两者之间的人工智能),自然也仅对这两类人工智能的致害事件的责任承担方式进行分析与制度设计。
3. 人工智能侵权责任研究
目前来看,人工智能侵权责任存在的主要问题在于人工智能侵权责任分配完全依赖、甚至套用现有的产品侵权责任制度。并非是说人工智能侵权责任应当完全脱离现有的产品侵权责任的框架,而是目前缺乏对于人工智能侵权行为的系统分析,使得对于人工智能的侵权责任主体没有区分而是笼统的一概而论,从而使不同侵权主体的责任承担方式均沿用产品侵权责任。
从司法实践而言,人工智能侵权责任笼统的适用产品侵权责任会导致责任分配并不能完全解决人工智能侵权问题,既而无法真正的保障被侵权人权益;另外,缺乏针对人工智能所具有的特殊性质的责任承担机制,所以如果坚持继续沿用产品侵权责任解决人工智能侵权问题,将使得大部分人工智能侵权问题的解决同样是不完整、不圆满的。因此,我的想法是在侵权责任的框架上,部分借鉴产品责任制度,制定专门适用于人工智能侵权责任制度。不仅能够充分实现侵权责任的承担以保护当事人合法权益,也能实现预防侵权行为的发生和解决侵权问题的目的和功能。
3.1. 人工智能侵权模式
对于弱人工智能,拘束于技术发展,其只能够完成简单的、单一的工作,与其他工具无异。所以对于弱人工智能的侵权模式只有一种可能性,即因人工智能存在缺陷从而造成了人工智能的使用者或第三人的人身损害或财产损失。
对于中人工智能和强人工智能则需要进行具体分析,分为三类,即生产者或销售者责任、使用者或第三人责任、以及人工智能责任。
第一种是生产者、销售者等因为故意或过失导致人工智能的使用者或第三者受害。该种模式下,侵权主体为生产者或销售者。
第二种是使用者、第三人因为操作不当或故意破坏导致自身或他人受害。该种模式下,侵权主体是人工智能的使用者或使用人工智能的第三人。
第三种是人工智能自身由于程序运行过程中出现未知错误或在运行过程中产生恶意(这两种情况皆与人类无关,是人工智能在运行中不断学习的结果)从而致使使用者或第三人受害。该种模式中,侵权主体为人工智能本身,但该情形下由人工智能与生产者或销售者共同承担侵权责任。
3.2. 确立人工智能侵权责任原则
人工智能的侵权责任应当实行举证责任倒置,即发生侵权事件后,应当先由生产者或销售者进行举证,若无法证明侵权事件与其无关则承担侵权责任;若可以证明自身无过错,则进一步确定真正的侵权主体。实行举证责任倒置的理由如下:
其一,就目前而言,强人工智能的销售和使用的最大收益者是其生产者与销售者。不论是基于 “谁受益谁担责”的原则,还是基于证明成本较高的现实考量。实现举证责任倒置既能从侵权问题可能发生的源头对生产者和销售者进行约束。而两者收益较高、体量较大,实行举证责任倒置也避免了在人工智能侵权事件后,因维权成本高、维权难的情况,更充分的保障了受害人的合法权益。
其二,生产者和销售者是对人工智能特性和行为模式最了解的主体,所以应遵循划分举证责任便利原则、获得相关证据可能原则等原则。确立生产者、管理者举证倒置责任,既解决了责任主体不易识别的问题,又减轻了其他主体举证责任的成本。
其三,我们仅仅是迈入了人工智能时代,我们仍然要继续研发人工智能技术,以在人工智能上取得领先优势,也必须做出一番成果,所以我们应当要激励人工智能的研发、生产。严格的无过错责任对于既有的、发展成熟的产品产生侵权问题是适用的,但对于人工智能侵权问题的适用可能打压了企业的研发热情,不利于人工智能产业的发展。
3.3. 人工智能侵权责任细则
对于弱人工智能可继续沿用产品侵权责任,若因人工智能存在缺陷从而造成了人工智能的使用者或第三人的人身损害或财产损失,应当生产者应当承担侵权责任。产品缺陷由生产者造成的,销售者赔偿后,有权向生产者追偿。因销售者的过错使产品存在缺陷的,生产者赔偿后,有权向销售者追偿。产品投入流通后发现存在缺陷的,生产者、销售者应当及时采取停止销售、警示、召回等补救措施;未及时采取补救措施或者补救措施不力造成损害扩大的,对扩大的损害也应当承担侵权责任。生产者、销售者应当负担被侵权人因此支出的必要费用3。
而对于中人工智能和强人工智能则根据三种侵权模式的不同,对应设计每种模式的侵权责任分配。
一是针对生产者、销售者存在过错导致他人受害的情况。生产者和管理者应当按照侵权法所要求的责任承担方式,做出承担停止侵害、排除妨碍、消除危险等侵权责任。同时,生产者、销售者应当继续查明人工智能侵权的具体原因,若仅是该侵权事件中的人工智能存在缺陷,可依照前文承担责任;若是因为生产、销售时的过失导致的大规模的产品质量问题。生产者和销售者不仅应当承担对该侵权事件被侵权人的责任,还应当承担对市场的责任,即生产者和销售者应及时进行大规模的召回以进行维修或集中销毁。
二是针对使用者、第三人因过错导致自己或他人受害的情况。使用者应该自己承担损失,如果还有其他被侵权人,使用者还应当承担对其他被侵权人的责任,对其进行相应的解决方式。该种模式下还应当具体判断侵权事件发生时的情形,可同时适用《中华人民共和国民法典侵权责任篇》的用人单位责任和劳务派遣单位、劳务用工单位责任、机动车交通事故责任、医疗损害责任等等责任承担方式(见脚注3)。
三是人工智能自身由于程序运行过程中出现未知错误或在运行过程中产生恶意(以上两种情况皆与人类无关,是人工智能在运行中不断学习的结果)从而使得使用者或第三者受害。这种情况非常特殊但并非没有发生,例如卡古(kargu)型四旋翼无人攻击机自主攻击哈夫塔尔指挥的“利比亚国民军”并造成了一名国民军相关成员的死亡4、深圳高交会上一个机器人突发故障在没有指令的情况下自行打砸展台玻璃、砸伤路人5等等人工智能自发的伤人、杀人事件。在这种情况下,生产者和销售者应立即发布公告,先停止所有该型号人工智能的使用,然后将该型号人工智能全部召回并研究具体的问题。若问题可以通过技术解决,则在问题解决后该型号的人工智能可以继续投放市场运行;若问题现有技术不足以解决,则必须将召回的人工智能全部销毁,并确保是无害化销毁。但无论是哪种调查结果和处理方式,生产者和管理者都应当对被侵权人承担相应的责任。
3.4. 针对人工智能的特殊处理规范
对于侵权事件的责任承担中,生产者和销售者应当依照人工智能的特殊处理规范,即在某些侵权模式下,必须履行对人工智能进行召回、维修甚至销毁的责任 [7] 。
其一,人工智能特殊处理规范的适用情形。特殊处理规范适用于以下人工智能侵权情形,即人工智能设计不当、人工智能程序运行出错等可以归因为人工智能内部程序问题的情形。其二,人工智能特殊处理方式。根据侵权行为发生原因的不同,特殊处理规范的具体方式包括对错误程序进行必要的排查并修改或销毁某些数据甚至是关键数据,或是对人工智能的全部程序进行格式化后再重新编辑,如若以上方法仍无法解决问题则启用销毁人工智能本体等无害化处理方式。其三,人工智能特殊处理的主体。特殊处理规范由人工智能生产者中的设计人员实施,同时由法院和相关机构、人员作为监督者和见证人,以确保生产者按相应规范对人工智能现有缺陷予以解决。其四,人工智能特殊处理的费用承担。因人工智能特殊处理而产生的相关费用都由人工智能生产者承担;若销售者为实际侵权主体,生产者在执行后特殊处理后可向销售者追偿。
4. 人工智能侵权责任配套设计
4.1. 建立人工智能监督机构
在进行人工智能侵权责任设计的同时,应当建立人工智能监督机构。由该机构负责从人工智能项目的审批到人工智能的生产、销售直至人工智能侵权后责任承担全过程监督,尽可能的减少人工智能侵权事件的发生,也能够以强制力保障侵权事件发生后各方责任充分履行,使得被侵权人的合法权益得以圆满。
4.2. 设计人工智能保险制度
保险部门可以针对人工智能设计各种保险制度以及销售项目,人工智能的生产者、销售者必须强制购买,使用者也可以进行购买。这样做可以确保在人工智能侵权事件责任承担实现前,为被侵权人先提供相应的赔偿,避免侵权范围的持续扩大,也能为侵权者减少诉讼带来的冲击,避免双方陷入诉讼漩涡。
4.3. 设立人工智能赔偿基金
生产者和销售者可在人工智能项目中设置人工智能的赔偿基金事宜。将人工智能项目资金的一部分划进赔偿基金,后续人工智能产生的销售盈利也应当将一部分也应当划进赔偿基金。这样的设计保证了在侵权事件发生后,生产者和销售者可以及时支付部分赔偿金以防止被侵权人的受害范围进一步扩大,也保障被侵权者合法权益的实现。
5. 结语
人工智能时代早已到来,人工智能给人类带来方便的同时,给我们带来难题也是不可避免的。法律虽然固有滞后性,也应当及时回应已经存在或可以遇见的问题并做出相应的改变。对于人工智能侵权问题,应当基于人工智能的特性分析人工智能可能存在的侵权模式,根据不同侵权模式从而确定侵权主体和侵权责任承担方式,对于人工智能侵权责任制度还应当配套相对应的制度,如建立人工智能监督机构、设置人工智能赔偿基金、设立人工智能保险制度等,以保障法律关系中的各主体充分履行自己的责任与实现应有的权益。
NOTES
1去年8月,科技部公布了《关于支持建设新一代人工智能示范应用场景的通知》,首批支持建设智慧工厂、自动驾驶等10个示范应用场景,进一步推进人工智能与生产生活场景的融合。新华网. 人工智能拓展生活应用新场景[EB/OL]。 http://www.xinhuanet.com/tech/20230222/00eff16f9ffa47d6845d558d34ae32cf/c.html,2023-02-22。
2中国信息通信研究院正式发布《人工智能白皮书(2022年)》,全面回顾了2021年以来全球人工智能在政策、技术、应用和治理等方面的最新动向,重点分析了人工智能所面临的新发展形势及其所处的新发展阶段,致力于全面梳理当前人工智能发展态势,为各界提供参考,共同推动人工智能持续健康发展。中国通信院. 《人工智能白皮书(2022年)》[EB/OL]。 http://www.caict.ac.cn/kxyj/qwfb/bps/202204/t20220412_399752.htm,2023-04。
3中国人大网。《中华人民共和国民法典》[EB/OL]。 http://www.npc.gov.cn/npc/c30834/202006/75ba6483b8344591abd07917e1d25cc8.shtml,2020-06-02。
4联合国披露的一份关于2020年3月利比亚军事冲突中的报告称,土耳其STM公司生产的“卡古-2”(kargu)型四旋翼无人攻击机被编程为在不依靠操作员的情况下自主攻击了撤退的哈夫塔尔指挥的“利比亚国民军”,并很有可能造成了一名国民军相关成员的死亡。澎湃新闻。《中华人民共和国民法典》[EB/OL]。https://www.thepaper.cn/newsDetail_forward_12931689,2021-06-02。
511月18日,网络盛传深圳高交会上发生“全国首例机器人伤人事件”,名叫“小胖”的机器人突发故障“杀伤力爆棚”,在没有指令的情况下自行打砸展台玻璃、砸伤路人,一位路人全身多处划伤后被担架抬走。澎湃新闻。《中华人民共和国民法典》[EB/OL]。 https://www.thepaper.cn/newsDetail_forward_1563985,2016-11-18。