人工智能侵权的法律问题研究
Research on Legal Issues of Artificial Intelligence Infringement
DOI: 10.12677/OJLS.2024.123216, PDF, HTML, XML, 下载: 55  浏览: 124 
作者: 王业茹:杭州师范大学沈钧儒法学院,浙江 杭州
关键词: 人工智能产品责任生产者设计者AI Product Liability Producer Designer
摘要: 随着人工智能产品种类的增多、应用范围的扩大,各类人工智能侵权案件层出不穷,人工智能侵权归责问题亟待解决。人工智能的拟人性特征导致现阶段人工智能法律地位颇具争议,产生了肯定说、否定说和折中说三种学说,折中说破坏了现行民法的基本理念,而人工智能技术发展初期,贸然赋予人工智能主体地位不会产生实际效应,明确人工智能是权利义务的客体,才是技术发展和权利保护的要求;其次,适用产品责任解决人工智能侵权问题具有合理性,人工智能产品的生产者、设计者应当承担无过错责任;但产品责任无法合理分配人工智能产品使用人的责任以及特殊类型的侵权案件责任,对此笔者认为在现阶段人工智能的使用人应承担过错责任,但在无人驾驶等特殊领域使用人应承担无过错责任。在人工智能领域特殊类型侵权的归责问题,则要引入公平责任,以此来保护受害者的权益。
Abstract: With the increase of the number of artificial intelligence products and the expansion of the scope of application, various artificial intelligence infringement cases have emerged one after another, and the problem of artificial intelligence infringement attribution needs to be solved urgently. The anthropomorphic characteristics of artificial intelligence have led to the controversial legal status of artificial intelligence at this stage, resulting in three theories of affirmation, negation and compromise theory. The compromise theory destroys the basic concepts of the current civil law. In the early stage of the development of artificial intelligence technology, rashly giving artificial intelligence the subject status will not produce practical effects, and it is clear that artificial Intelligence is the object of rights and obligations, and is the requirement of technology development and rights protection. Secondly, it is reasonable to apply product responsibility to solve the problem of artificial intelligence infringement, and the producers and designers of artificial intelligence products should bear no fault responsibility. However, product responsibility cannot reasonably allocate the responsibility of users of artificial intelligence products and For the liability of special types of infringement cases, the author believes that at this stage, the user of artificial intelligence should bear the responsibility for fault, but the user in special fields such as unmanned driving should bear the responsibility for no fault. For the attribution of special types of infringement in the field of artificial intelligence, fair liability should be introduced to protect the rights and interests of victims.
文章引用:王业茹. 人工智能侵权的法律问题研究[J]. 法学, 2024, 12(3): 1501-1508. https://doi.org/10.12677/OJLS.2024.123216

1. 引言

人工智能是当前阶段炙手可热的话题,总书记高度重视我国人工智能的发展,多次指出“人工智能是引领新一轮科技革命和产业变革的战略性技术,加快发展新一代人工智能是我们赢得全球科技竞争主动权的重要战略抓手”“要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究” [1] 。随着人工智能技术的迅猛发展,对人工智能的应用已经深入到社会生活的方方面面,自动驾驶、手术机器人、AI陪伴、智能写作等各领域的人工智能产品极大的方便了人类的生产、生活,但随之而来的还有各类侵权案件。

2. 人工智能侵权概述

“人工智能”这一概念于1956年首次提出,当时其定义是“制造智能机器的科学与工程”。随着科学技术的不断发展,人工智能的定义逐步扩大,目前,人工智能的定义尚没有统一的定论,专家学者从各自专业角度出发,对人工智能有不同的见解。总结来说,“人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学” [2] 。

2.1. 人工智能侵权的主要特征

一是人工智能的拟人性。人工智能侵权不同于传统侵权,其侵权主体具有拟人化的特征。人工智能技术的本质就是通过模拟人脑来进行记忆、学习和互动,甚至拥有与人类智慧不相上下的机器智能。因此,人工智能侵权和人类侵权行为极为类似;二是侵权责任认定的复杂性。人工智能侵权行为实施过程中涉及设计者、生产者、使用者与被侵权对象等主体。一旦发生人工智能侵权,归责原则和责任承担主体具有高度复杂性,很难用单一的法律规范对人工智能侵权责任认定进行规制,需要完整的规范体系对这一问题进行调整。

2.2. 人工智能的法律地位

科技的发展使人工智能越来越趋近于“人”,与此相对应的法律挑战是人工智能在法律关系中的地位是客体还是主体。不同的法律地位对应着不同的纠纷规制方式,因此明确现阶段人工智能的法律地位是探讨人工智能侵权法律问题的前提。

对该问题当前法学界主要有以下三种观点,分别是肯定说、否定说和折中说。

肯定说认为,可以赋予人工智能以法律主体地位。人工智能具有主体地位的论证主要分为两类:一类是将人工智能类比为自然人。人工智能可以不断进行自我学习,可以脱离人类的控制,独立自主地作出行为,拟人性成为最大的特性;另一类是将人工智能类比为法人和非法人组织 [3] 。人工智能与公司法人某些方面有类似的特征,比如两者都是由自然人“出资”制造出来的,理所应当具有一样的权利能力和行为能力。否定说认为,人工智能是民事法律关系中的客体,其不过是人类在生产、生活过程中所使用的比较先进的辅助工具。不论其发展到什么程度也不能改变人类的主导地位,人工智能始终是物,是人造机器。

折中说认为,从认知能力角度看,人工智能的地位已经超越了物的范畴,但从起作用角度看,人工智能依然未能摆脱为人类服务的工具角色,还处在物的范畴之中。因此折中说既不完全肯定也不完全否定人工智能体的法律人格,而是看作是“电子奴隶” [4] 或“电子人” [5] 。折中说的缺陷是违反了人与物两分的基本理念与基本规则,折中说貌似是在肯定说与否定说之间找到了一种平衡,但却打破了现行民法的基本理念与基本规则。现行民法认为市民社会的基本构成只有人和物两种形式,人是主体,物是客体 [6] 。因此凡是主张人工智能既有人的属性又有物的属性,或者主张人工智能是人与物之外的第三种物质,都为现行民法所不能容忍,因为前者模糊了人与物的基本界限,后者则创造了第三种物质。因此笔者不赞成折中说,认为应当结合人工智能的发展阶段来看采用肯定说或者否定说。目前正处于从弱人工智能到强人工智能的转变阶段,而超人工智能只存在于科幻电影之中,应当适用否定说,没有采用肯定说的必要性有效性和可能性。

有学者提出“法律关系主体与客体的区分依据并非局限于是否拥有生命、是否拥有独立意志,而应当重点衡量有无必要赋予主体资格” [6] 。人工智能技术确实是取得了很大的进步,但还没到为之大肆修改法律的地步,正如有学者指出的“面对人工智能技术的发展,用现行民法的基本理念和基本原则进行适当调整,就能够解决其所带来的问题” [7] 。尤其是现行民法中的产品责任在人工智能侵权案件中有很强的适用性。

从有效性角度来看,赋予人工智能主体地位并不是有效的权利规制方式。在私人权利盛行的时代,所有权制度是最全面的权利利用方式,所有权人可以对人工智能行使占有、使用、收益、处分的权利,其完整性超越其他任何一种财产权 [8] 。首先,承认生产者对人工智能的所有权,使其对人工智能的权利最大化,可以激励生产者者不断改进和提升人工智能技术,开发人工智能技术的多种利用途径。其次,对使用者来说,法律赋予权利的同时也赋予权利人谨慎行使权利的义务,使用者在使用人工智能的过程中必然提高警惕避免产生额外损失。人工智能在具备人类意志和独立财产之前,仍要依靠具体的自然人行使权利、履行义务,过早赋予人工智能法律主体资格可能导致实际责任主体享有权利后把责任推给人工智能这一法律主体 [9] 。因此,人工智能技术发展初期,明确人工智能是权利义务的客体,是技术发展和权利保护的要求。

赋予人工智能产品以法律主体地位,需要大量相关理论制度进行支持,比如达到什么标准的人工智能才能赋予主体地位?赋予人工智能主体地位是否需要登记,怎样进行登记?人工智能作为侵权责任主体是否需要拥有一定的“财产”,这些财产由谁出资,出资之后如何管理?当前阶段这些问题在理论届的讨论都少之又少,更不用说实践了。虽然在2017年,沙特阿拉伯则直接授予“女性”机器人索菲亚以公民身份,将其视为公民对待 [10] 。但被授予主体地位的相关人工智能只是获得了名义上的主体地位,后续并没有相关权利义务的行使,这仅仅是一种抱着猎奇心理的尝试而已。因此配套制度不解决,赋予人工智能法律主体地位只是一张空头支票,不能产生实际效用。贸然采用主体说将会给我国的法律体系和伦理道德规范产生巨大的影响,对此应当慎重。

笔者认为在人工智能法律地位这个问题上当前阶段应该采用的否定说,否定人工智能的主体地位,尽可能的保障法律的稳定性。但人工智能毕竟不同于普通的物,我们应当在守正与创新之间做好平衡,下文将讨论在否定人工智能主体地位的前提下,人工智能侵权案件的担责主体及归责原则。

3. 产品责任制度规制人工智能侵权的具体路径

当前正处于从弱人工智能到强人工智能的转变阶段。尽管人工智能技术的进步速度让人惊叹,当下的人工智能在人类活动过程中扮演的仍然是“工具”的角色,并未超越人类所定义的“物”之范畴,仍然处在人类的掌控之中 [11] 。在人工智能产品的侵权案件中,将人工智能定位为被人们生产、使用和消费的“产品”,考虑适用我国现行法律体系中的产品责任更为合适。

人工智能产品能否纳入到产品责任法中的产品范畴,对于这个问题我国立法没有明确规定,学界也存在不同的观点。判断人工智能产品能否纳入产品范畴,需要探究“产品”的概念及其外延。《产品质量法》第2条第2款规定:“本法所称产品是指经过加工、制作,用于销售的产品。”绝大多数的人工智能是为了参与流通即用于销售而生产出来的,从此方面来说人工智能产品符合《产品责任法》第2条规定的“经过加工、制作”“用于销售”要件,正中产品范畴。

3.1. 生产者的责任

在追究生产者在人工智能侵权领域中的责任时,人工智能产品本质上与普通产品并无区别,没有涉及到人工智能产品的特殊性,因此能够直接纳入产品责任的范畴,适用《民法典》侵权责任编第1202条规定的无过错责任。

首先,适用无过错责任有助于提高人工智能产品的安全性,无过错责任要求不论生产者或销售者有无过错均应承担因人工智能产品缺陷导致的全部损害赔偿责任,这可以促使生产者或销售者尽其最大努力来降低产品缺陷的概率。从另一个角度讲,缺陷对于个人来说是不可预测的随机事件,但对于企业来说是可以预见的,生产者可以通过数据分析,计算侵权案件的发生概率及赔偿金额,将其作为“预计负债”计入人工智能的生产成本,进而分散转移至每一位产品使用者身上。无论采取什么样的政策都不可能彻底消灭产品缺陷,但适用过错责任不仅可以最大限度的降低缺陷的概率,还能进行有效的风险责任分担。其次,适用无过错责任能提高司法效率,降低司法机关审理人工智能侵权案件的难度。如果采取过错责任,在人工智能产品侵权案件中受害者需要举证证明生产者在人工智能产品的生产过程中存在过错。但由于人工智能产品的非透明性,受害者基本不可能打破人工智能产品生产的技术壁垒来证明生产者存在过错 [12] 。因此从司法实践方面来说采用无过错责任才是明智之举。

3.2. 设计者的责任

《民法典》产品责任中承担责任的主体仅涉及生产者、销售者、运输者、仓储者等第三人,没有直接规定设计者的责任。由此引出第一个问题设计者是否应当承担责任?对于这个问题,学界存在两种观点,主张设计者不担责的学者认为,基于人工智能的技术特性采用“技术中立”原则,技术自身一般不产生责任,技术侵权不适用产品责任的有关规定。具体而言,针对人工智能技术自身引起的侵害,设计者不承担责任,除非该技术的最初目的即是侵权或违法 [6] 。技术中立原则能最大限度的保护设计者,促进人工智能这一新兴产业的发展。但是该观点存在的问题是,“技术中立”原则排除产品责任的适用,认为技术不能包含在产品之中,针对人工智能技术自身引起的侵害,生产者、销售者均不承担责任,这样就会导致被侵权人丧失救济途径。

笔者赞同设计者应当承担责任的观点,毕竟人工智能产品属于高科技产品,在人工智能的诞生过程中往往存在相对独立的设计者和制造者。在人工智能侵权案件中,设计者具有特殊的地位,人工智能依据设计者制造的程序作出行为。在普通产品的生产过程中,制造者很容易发现产品的设计存在缺陷,在这种情况下要求制造者对设计缺陷负责有其合理性。而且如果发现存在设计缺陷制造者可以采取停止生产、停止上市等措施,将产品侵权案件扼杀在萌芽阶段,避免更多的损失,符合法经济学原理。但人工智能产品存在“算法黑箱性”,制造者难以突破技术壁垒发现设计缺陷,在这种情况下要求制造者对设计缺陷负责不符合公平性的原则,基于此我认为应当引入设计者的责任。

侵权责任编中并没有直接将产品的设计者列为担责主体。有两条法律解释途径可以解决设计者的责任承担问题。第一条途径,将人工智能产品的设计者纳入产品责任编第1204条的“运输者、仓储者等第三人”的范畴中,据此设计者承担过错责任。第二条途径,扩充产品责任中生产者的范畴,将人工智能产品的设计者纳入其中。我国现行法律没有对生产者进行解释,按照文意解释生产就是产品从无到有的过程,而生产者就是在生产这个过程中做出贡献的独立个体,基于人工智能产品的技术性特征人工智能产品设计者应包括其中。这样就能根据《民法典》1202条,让设计者承担无过错责任。由上述分析可以得出设计者无论是承担过错责任还是无过错责任,都可以按照现行法律进行合理解释。因此我们需要结合无过错责任原则的历史缘由来分析设计者究竟应承担何种责任。

过错责任原则盛行于19世纪中叶以前,进入19世纪中叶以后,资本主义世界进入社会化大生产阶段,先进的科学技术和生产工具给社会带来了巨大的进步,同时也引起了出乎意料的事故和损害。以前人们只要尽到相当的注意义务就可以避免对他人造成损害,在社会化大生产时期,先进的科技成果已远远的超出了人力支配范围,即使人们尽到了最高的注意义务,按照传统的过错认定标准被认为没有过错时,损害仍然不可避免。当大企业因存在上述新的危险造成损害时,根据过错责任原则,无辜的受害人往往得不到救济。为了更好地保护被害人,有必要不考虑加害人的过错,使之对自己的行为负责,无过错责任因此而诞生。无过错责任则主要针对现代化大生产、高科技所带来的各种先进机器、高速运输工具、环境污染事故,这些对象具有一些共同的特性,即它们都带有不可克服的危险性 [13] 。人类无法完全掌控人工智能产品,其具有不可克服的危险,从此方面来说应该适用无过错责任。

有些学者把生产者、设计者统称为制造商,认为“由制造商承担产品责任是平衡技术发展与消费者权益保护的最优选择” [14] 。笔者认为在将来订立司法解释时,应当将“生产者”进行扩大解释,将人工智能产品的设计者包括在内,但是不能扩大解释为包括所有其他类型产品的设计者。这样人工智能产品的设计者也能适用发展风险抗辩的免责事由,在科学技术水平尚不能发现缺陷存在时免于承担责任,在一定程度上减轻设计者的责任。因此现行法律可以很好的解决人工智能侵权领域设计者的责任问题。有些学者提出在将来立法时将人工智能的设计者作为与生产者并列的责任主体添加在相关法条当中 [11] ,诚然,这也是一个解决方法,但“解释优先,类推次之,创造最后”,在司法解释就可以解决问题时,创设新的法律不是明智之举。

4. 人工智能侵权归责的完善建议

4.1. 使用人的责任

产品责任编中未直接规定使用者的责任,但使用者作为人工智能产品的直接控制者与利益享有者理应成为责任主体,谨慎使用人工智能产品,避免因操作不当导致第三人受损是其应当注意的义务。可以直接根据《民法典》侵权责任编中的第1165条,让使用者毫无争议的承担过错责任。此种侵权情形与传统侵权行为没有区别,不在本文的讨论范畴之中。

人工智能产品与普通产品的一个显著区别是,在实际运作过程中人工智能会脱离使用人的掌控。这一特征使得以使用人的注意义务为前提的过错侵权责任难以适用于人工智能独立运作的过程中产生的侵权,因此过错责任原则在此种情况下存在适用困境,需要进一步研究无过错责任的适用。

4.1.1. 高度危险责任

该理论是将人工智能视为高度危险作业,人工智能存在难以控制的潜在风险,在经历自主学习之后会做出与设计者初衷不同的决策,其决策体系类似于“黑箱”。因此,人工智能侵权类似于高度危险作业,可以适用高度危险责任。

但是有学者认为,高度危险作业的立法目的是督促当事人尽力防范、减少损害的发生,而在人工智能独立运行过程中使用人无法控制人工智能。即便让人工智能的使用人承担责任,也无法防范、减少这类侵权的发生 [10] 。而且高度危险责任的责任人限于为营业目的而从事高度危险作业人,因而无法规制营业之外的行为。还有学者认为,人工智能的运用与核设施运营、航空器运营等行为存在本质区别,发展人工智能的目的是使人类生活更为便利与安全,即便在使用过程中产生了危险也并非其固有风险,很难将其定性为危险行为 [13] 。因此,高度危险责任不适用于人工智能侵权。

4.1.2. 用人者责任

用人者责任又叫雇主责任,主要内容是如果雇员在职务范围内实施侵害他人权益的行为,那么不论雇主是否有过错都需要对雇员的行为承担责任。人工智能自主运行行为是为执行特定任务,所有者或使用者享有其运行利益。因此可以比照雇主对雇员的责任,让部署人工智能的人承担责任。

但雇主责任适用的前提是雇员为独立的主体,有独立财产和独立人格。人工智能肯定没有独立的财产,因此雇主承担责任后向有过错的雇员追偿的权利不能实现,至于有无独立的人格尚存在巨大争议。而且人工智能并不具备人类雇员的特性,在复杂的社会活动中不能作为一个有自我意识的主体存在,也无法从主观上断定其是否优先考虑“雇主利益” [14] 。因此,将其类比为雇员并不合适。

4.1.3. 监护人责任

监护人责任说认为因人工智能具备一定的自主性,但又不能像人类一样完全独立地思考和行为,其类似于人类社会中的无民事行为能力人或者限制民事行为能力人,使用者使用人工智能时应该对人工智能的自主行为负有监督义务,应当承担人工智能的监护人责任。

但监护权系准身份权 [15] ,人工智能显然不具备“人格”与“身份”,而且监护人的监护手段与强度会随着监护人理性的增长而降低,但人工智能的理性程度难以确定。因此让人工智能的使用者负担监护义务这一说法并不合适。

现行法律没有规定使用者的无过错责任,但2022年8月1日实施的中国首部规范无人驾驶汽车管理的法规《深圳经济特区智能网联汽车管理条例》中规定了相关责任。其中第53条规定,发生交通事故造成损害,有驾驶人的智能网联汽车,由驾驶人承担赔偿责任;无驾驶人的智能网联汽车,由车辆所有人、管理人承担赔偿责任。由此可以看出在无人驾驶汽车领域使用人承担的是无过错责任,但不能将其承担的无过错责任扩展到其他人工智能产品之中。因为在无人驾驶汽车领域使用人承担无过错责任的前提是存在机动车交通事故责任强制保险,而其他人工智能产品并未规定责任强制保险。与生产者相比,使用者是力量较为薄弱的一方,不宜为其设置超出承受范围的责任。

4.2. 特殊性侵权案件的责任规制

人工智能可以分为工具型人工智能与认知型人工智能,二者之间的区别在于是否具有“自主认知性”。工具型人工智能又称弱人工智能,只能“输出”不能“输入”,在制造完成的一刻起它所具有的全部可能性就已经注定,我们所能接触到的人工智能产品,大部分是工具型人工智能,比如扫地机器人、语音识别、人脸识别等。认知型人工智能又称强人工智能,具有自主认知性,能够自主搜集信息、储存信息,并利用这些信息进行自主决策,随着时间的推移能够提高应对特定任务的性能,变得越来越“聪明”。必须进行说明的是“自主性”和“自主认知性”是不同的概念,前者是指人工智能可以不受人类控制自主作出行为,后者是指人工智能可以不受人类控制自主获取知识并利用这些知识进行推理。

特殊性侵权是指认知型人工智能在独立运行过程中因认知水平的改变而产生的行为所导致的侵权。比如,微软公司研发的智能聊天机器人Tay,仅上线24小时就紧急“下岗”了,理由是发表涉及女权主义和种族歧视的不当言论,微软设计它的目的在于与人类进行互动,并在互动中学习,当用户在推特上@TayandYou后,Tay就会追踪该用户之前发布的各种信息,比如年龄、性别、喜欢的食物、甚至感情状况等等。随着时间积累,Tay会在与人们的交流中不断学习,人们和她交流的时间越长,她就会变得越“智能”。也正是因此,不管是好的、坏的,它都可以学到。聊天机器人Tay发表言论的行为就是认知型人工智能在独立运行过程中因认知水平的改变而产生的行为。

首先此种情形下人工智能的缺陷在产品投入流通时并不存在或者不能发现其存在,生产者、设计者可以适用发展风险抗辩,不承担产品责任。其次,在人工智能产品独立运行的过程中不存在使用者,没有承担使用者责任的主体。如果法律对此情形视而不见,让损失保留于其所发生之处,会阻碍人工智能产品的推广,使大众产生抵触心理。因此,我们不得不把目光投向公平责任。公平责任的适用条件是:加害行为、损害、加害行为同损害的因果关系、当事人均无过错且不构成无过错责任、根据当事人的财产状况加害人不承担责任显失公平 [16] 。在人工智能的特殊性侵权案件中生产者财产状况明显优于受害人,符合公平责任的适用条件。我国《民法典》第1186条规定了公平责任,但为了进一步明确分担损失规则的适用范围,统一裁判尺度,避免法官的自由裁量权的滥用,该法条同时也规定公平责任适用的前提是“依照法律的规定”。而现行法律没有规定人工智能侵权可以适用公平责任,因此为了解决人工智能领域特殊类型侵权的归责问题,有必要增设以“人工智能产品造成的损害,可以适用公平责任”为内容的法条。在人工智能侵权领域公平责任是一个有严格适用条件的兜底责任,具有很重要的价值。

5. 结语

在当今的人工智能技术飞速发展的条件下,逃避风险就意味着放弃理性。如何通过法律防范人工智能风险的同时兼顾技术的发展,是法律学者义不容辞的使命。首先现阶段人工智能产品的法律地位是物,是具有独特特征的物;其次在人工智能产品客体属性基础上,应当根据《民法典》侵权责任编和《产品质量法》追究人工智能产品生产者的责任,具体来说生产者承担无过错责任;人工智能产品的设计者基于对产品的特殊贡献,应当承担责任,按照现行法律最便捷合理的做法是将其纳入到生产者的范畴,使其和生产者承担相同的责任;人工智能产品的使用者应当承担无过错责任,使用者是较为薄弱的责任主体不宜为其设置过重的责任;最后是特殊性侵权案件难以适用产品责任,应当适用公平责任,因为我国《民法典》第1186条对公平责任的限制,必须增设一条“人工智能产品造成的损害,可以适用公平责任”为内容的法条,来弥补严格适用过错责任和无过错责任带来的不公。因此现阶段人工智能产品的侵权行为并没有动摇现有的民事侵权责任体系的理论根基,在改进产品责任的前提下就能很好的规制人工智能侵权案件。

参考文献

参考文献

[1] 王秋蓉, 吴亚楠, 杜娟, 等. 推动新一代人工智能健康发展的新路径——“人工智能助力联合国可持续发展目标”溯源篇[J]. 可持续发展经济导刊, 2020(6): 15-19.
[2] 王群, 付丽娟. 人工智能侵权责任探析[J]. 齐齐哈尔大学学报(哲学社会科学版), 2023(10): 107-110.
[3] Davies, C.R. (2011) An Evolutionary Step in Intellectual Property Rights—Artificial Intelligence and Intellectual Property. Computer Law & Security Review, 27, 601-619.
https://doi.org/10.1016/j.clsr.2011.09.006
[4] Beck, S. (2016) The Problem of Ascribing Legal Responsibility in the Case of Robotics. AI & Society, 31, 473-481.
https://doi.org/10.1007/s00146-015-0624-5
[5] 胡裕岭. 欧盟率先提出人工智能立法动议[J]. 检察风云, 2016(18): 54-55.
[6] 张童. 人工智能产品致人损害民事责任研究[J]. 社会科学, 2018(4): 103-112.
[7] 杨立新. 用现行民法规则解决人工智能法律调整问题的尝试[J]. 中州学刊, 2018(7): 40-49.
[8] 汤敏. 民法前沿问题研究[M]. 北京: 中国政法大学出版社, 2018: 302.
[9] 彭中礼. 新兴技术推动法理论变革的因素考量——以人工智能产品侵权责任分配理论为例的反思[J]. 甘肃社会科学, 2022(4): 115-128.
[10] 吴芷靖. 论智能机器人索菲亚对传统法律主体的冲击[J]. 丽水学院学报, 2021(4): 42-47.
[11] 张安毅. 人工智能侵权: 产品责任制度介入的权宜性及立法改造[J]. 深圳大学学报: 人文社会科学版, 2020(4): 112-119.
[12] 钟晓雯. 人工智能侵权: 产品责任制度规制的窠臼与纾解[J]. 河南科技学院学报, 2022, 42(3): 57-64.
[13] 张伟, 杜军燕, 张涛. 归责原则的界定与我国侵权法的归责原则[J]. 北京邮电大学学报: 社会科学版, 2003(3): 43-46.
[14] 钱思雯. 弱人工智能时代的法律回应——构建以产品责任为核心的责任分配体系[J]. 中国科技论坛, 2019(9): 76-84.
[15] 杨立新. 人身权法论析[M]. 北京: 人民法院出版社, 2006: 862.
[16] 王新雷, 秦文豪. 涉人工智能案件的审判难点及应对思路——基于对220件司法裁判结果的实证研究[J]. 北京航空航天大学学报: 社会科学版, 2023(1): 1-13.