生成式人工智能创作物的侵权责任界定探析——以ChatGPT为例
An Analysis on the Definition of Tort Liability for Generative Artificial Intelligence Creations—A Case Study of ChatGPT
DOI: 10.12677/OJLS.2023.116722, PDF, HTML, XML, 下载: 175  浏览: 700 
作者: 秦俊龙:贵州大学法学院,贵州 贵阳
关键词: 生成式人工智能ChatGPT侵权侵权责任Generative Artificial Intelligence ChatGPT Infringement Tort Liability
摘要: 生成式人工智能这个火热的话题以ChatGPT的问世推向高潮,随即所面临新颖的侵权方式,是对现行法律体系的挑战,传统侵权法是难以对其侵权责任的承担做出应对。对此本文将通过分析生成式人工智能自身特点以及侵权行为特点即生成式人工智能创作内容的自主性、可信度和侵权行为隐蔽性的角度出发,围绕其特点对不同生成式人工智能主体理论学说做出价值判断即支持折中说,认为应赋予生成式人工智能有限的法律人格;再者根据其特点探讨出明确的判断标准即“接触 + 实质性相似”以解决生成式人工智能创作物侵权认定问题;最后以生成式人工智能创作物类型的划分、致人损害和虚构信息导致侵权三种侵权方式,确定生成式人工智能所划分的两种创作物类型即高技术性、专业性内容和思想观念表达内容分别适用过严格责任原则和无过错原则;而致人损害导致侵权适用严格责任原则更为合理以及虚构信息导致侵权可适用一般侵权责任原则加以解决。以此为解决侵权责任的界定提供参考价值。
Abstract: The hot topic of generative artificial intelligence reached its climax with the advent of ChatGPT, and then faced with novel infringement methods, which is a challenge to the current legal system, and the traditional tort law is difficult to cope with its infringement liability. In this regard, by analyzing the characteristics of generative AI and the characteristics of tort, namely the autonomy, credibility and concealability of generative AI’s creative content, this paper will make a value judgment on dif-ferent generative AI’s subjective theories, that is, support the compromise theory, and hold that generative AI should be endowed with limited legal personality. Furthermore, according to its characteristics, a clear judgment standard, namely “contact + substantial similarity”, is discussed to solve the problem of infringement identification of generative artificial intelligence creations. Finally, based on the classification of generative artificial intelligence creation types, causing damage to people and causing infringement by fictional information, it is determined that the two types of generative artificial intelligence creation types, namely high technical content, professional content and ideological expression content, have respectively applied the principle of strict liability and the principle of no-fault. It is more reasonable to apply the principle of strict liability for infringement caused by damage to human beings, and the general principle of tort liability can be applied to solve the problem caused by fictitious information. It provides reference value for solving the definition of tort liability.
文章引用:秦俊龙. 生成式人工智能创作物的侵权责任界定探析——以ChatGPT为例[J]. 法学, 2023, 11(6): 5046-5051. https://doi.org/10.12677/OJLS.2023.116722

1. 引言

在2022年11月,以ChatGPT的爆红让世人开始正视生成式人工智能,对其态度转变为前所未有的谨慎,在拥有强大算力和信息处理能力的生成式人工智能面前,用户们享受到了最初的便利,随着数据的更新、算力的优化升级等,现ChatGPT已将应用程序的编程接口公然开放 [1] 。换言之,接下来可以将ChatGPT植入各大App中。但随之而来的是对个人权益甚至公共利益侵害或者说是对法律的挑战,对于现在诸多学者就关于生成式人工智能发表了不同观点和看法,这就使我们不得不开始要应对这个生成式人工智能时代的到来,对此笔者将对生成式人工智能的创作物侵权与否以及侵权责任承担进行探析。

2. 生成式人工智能概念

现在人们生活中离不开智能设备,但这些智能设备并不能算得上今天所讨论的生成式人工智能。所谓生成式人工智能是指人为编写的运作程序、算法等的机器对人类活动进行模仿且自动学习的技术。对此将弱生成式人工智能与正在“成长”阶段的强人工智能进行了区分,此种生成式人工智能体现出有“自主性”和“理性判断”的能力,在生成式人工智能运行过程中或者在使用过程中人为参与因素则较少。

3. 生成式人工智能侵权行为的特点

生成式人工智能的侵权方式均依据生成式人工智能创作内容的特点而产生,笔者则将根据其生成内容特点进行探析。

3.1. 生成式人工智能创作内容的自主性

生成式人工智能创作出的内容皆是通过算法等自动生成的,整个过程没有人工参与。唯一由人类主体主导的仅仅是算法的设计、代码的编程以及对后续学习资料的提供,除此以外再无人类主体活动的干涉,所以在运行过程中和内容呈现阶段都是生成式人工智能自己对已接收的信息进行学习并自己“决定”创作内容,而生成式人工智能呈现的内容就变得难以预测、具有不确定性。正因人类主体对生成式人工智能在创作过程中和对创作结果的干涉是非常有限的,那么生成式人工智能所实施的侵权行为就有可能超出人类主体的可控范围。例如在2023年3月,ChatGPT就发生了个人隐私数据疑似泄露事件,用户之间看到了他人的隐私信息,对此情形各国就隐私数据泄露和网络安全问题展开调查1

但是对于生成式人工智能所做出问题内容的价值取向并非完全不可控,比如有用户让ChatGPT为拜登和特朗普写赞美诗,为拜登写出赞美诗后却拒绝为特朗普写赞美诗2。对此种情形可见,其部分内容的价值判断以及价值立场可由算法设计者决定。

3.2. 生成式人工智能创作内容的侵权行为隐蔽性

生成式人工智能所学习的内容需人类主体输入,对其输入的内容能够自动进行学习,自动对数据信息进行整理分析和运用,想让ChatGPT成为设计师或者画家,那么就需要输入大量设计或者绘画作品。所呈现内容都是通过学习海量信息以及模仿人类活动后所做出的理性判断,并不是对海量信息单纯的提取运用,而是有深入学习后独立的判断。再加上生成式人工智能的自主性,所以即便是开发者也对所创作出的内容是否侵权也难以预料以及察觉。其次是AI本身对数据库进行学习后,所创作出的内容可能借鉴了成千上万甚至更多的作品特点以及因素,成分组合相当复杂以及原作品的特点在所创物中占比重不高,对此即使是侵权,普通人难以察觉,被侵权人也存在举证困难,而且还存在侵害多方主体利益的情形。

3.3. 生成式人工智能创作内容的可信度存疑

由于生成式人工智能所学习的信息非常广泛,用户接收生成式人工智能所生成内容的真实度是难以查证的,若存在不实内容,可能会误导公众甚至传播虚假事实。例如ChatGPT在回复用户提问时,错将澳大利亚某一地区市长列为犯罪分子并称已在监狱服刑3。若后续传播该虚假事实造成他人名誉损害,此时是该由没有主观过错的用户承担侵权责任还是由生成式人工智能责任主体承担呢?

3.4. 损害后果的不确定

以ChatGPT为例,其大数据正在通过用户与生成式人工智能聊天的过程中收集着该用户的个人信息即个人喜好、性格、说话方式、职业等,所以ChatGPT所回复的内容是因人而异的,这与传统大数据个性化推送是有区别的,传统个性化推送是根据个人兴趣来推送相似内容,其推送内容信息本质上没有改变,而ChatGPT是根据已学信息来模拟人类表达方式为用户创作出“私人订制”的内容,对此造成的侵权损害结果难以估量 [1] 。

4. 生成式人工智能是否能够拥有法律人格问题的探析

随着ChatGPT进入中国市场,在2023年4月我国互联网信息办公室也随即发布《生成式生成式人工智能服务管理办法(征求意见稿)》。但是该意见稿只是从宏观上讨论了生成式人工智能可能对个人隐私和著作权侵权的问题,对具体法律规制路径并未做出。但既然要讨论生成式人工智能的侵权问题,就应当讨论法律如何规制生成式人工智能是关键,相应的法律责任该如何承担之前,则需确定生成式人工智能能否拥有法律人格?确定其法律地位才能进一步讨论生成式人工智能引发的侵权责任问题。

对于生成式人工智能能否拥有法律人格即民事主体资格,总和国内外学者观点主要有以下三种学说。一是否定说,即生成式人工智能不应拥有法律人格,当然也不能被视为法人,将生成式人工智能侵权看作产品侵权,责任承担则是开发者、销售者等责任主体承担不真正连带责任;二是折中说,也称有限人格说,即赋予生成式人工智能有限的法律人格,类似于法人;三是肯定说,即生成式人工智能应当拥有法律人格,使生成式人工智能能够像自然人一样享有民事权利和承担民事义务和民事责任,能够更好从事民事活动 [2] 。

对此笔者的观点是支持折中说的,应当赋予生成式人工智能有限的法律人格。在2017年欧洲会议通过的《机器人民事法律规则的决议》中提出赋予最复杂和自主能力最高的智能机器人“电子人格”的法律地位 [3] 。这份决议意在助于长远发展,减少对生成式人工智能的发展限制。当然有限的法律人格,重点在于“有限”,比如无法与人类共情,无法与人类享有同等的自然人权利即生命权、婚姻权等。而赋予有限人格可以有效处理社会事务,促进社会以及法律的发展,比如生成式人工智能可借鉴法人在法律中的拟制人格制度,进行交易或者承担侵权损害赔偿责任时,能够明确责任主体,但在我国的法律责任承担的机制中尚未建构,需要法律进一步对相关民事权利、义务和责任进行规制。

5. 生成式人工智能创作物侵权认定的判断标准

我国学术界理论上未具体规定,但司法实践对此统一认可的一般判断规则即“接触 + 实质性相似” [4] 。接触是说生成式人工智能对已输入的信息当中存在于他人在先公开发表内容的接触可能性,此处的接触并不是需要实体或者实实在在的接触,而是对于已经公开发表的内容有浏览或者学习到的可能性。如果没有接触,那生成式人工智能所创作的内容就不存在侵权一说。对此被侵权人举证证明存在接触可能性也是容易的。

其次是实质性相似的判断,根据上文生成式人工智能侵权行为特点的第二点,生成式人工智能对原作品绝不是单纯的复制粘贴,而是通过海量内容的提取组合的表达,甚至说生成式人工智能的创作高度和深度都符合我国对作品的要求,所以不能仅根据生成式人工智能创作内容与原作品内容的简单相比。对此判断其是否侵权需分两步走,一是通过社会公众对生成式人工智能创作内容的主观感受是否存在实质性相似,此处的社会公众是指非专业人员;二是是否在已公开发表作品内容的合理使用范围内使用,若对原作造有损害影响即经济价值,则可以判定为两者之间存在实质性相似,生成式人工智能体构成侵权。所以对于生成式人工智能创作物是否构成侵权关键在于实质性相似的判断。

6. 生成式人工智能创作物侵权责任归责原则探析

上文所提及我国并不承认生成式人工智能拥有法律人格,而是将其视为法律的客体,则不享有民事权利、义务和承担民事责任,那由谁来承担该侵权责任呢?通过《民法典》侵权责任编可知:生产者、销售者和第三人三类,以及侵权责任的归责原则的选择应依照《民法典》侵权责任编,即过错责任、过错推定责任和无过错责任。

6.1. 生成式人工智能是否适用产品责任

当生成式人工智能体因内部缺陷造成侵权,而生成式人工智能无非是生成内容的错误引导、虚构事实等无具体形态的侵权方式,所以产品内容的缺陷导致的侵权是否适用产品责任呢?对此可借鉴美国曾出现一起航班按照错误标示的航空飞行图表所发生的空难判例,美国法院认为该图表属于可大规模生产以及图纸在市场上销售的内容是相同的商品,而不是根据航空公司或者该航班特定的图表,所以应看作为产品,而不属于服务,因此图表出版者应当对错误图表承担产品责任;为此美国法院为将产品概念表述清晰,以毒蘑菇图书案内容的缺陷判例与航空图表案做出区分,认为图书中的缺陷是一种思想表达,对此不应该对思想科以严格责任,否则会阻碍思想表达和传播,因此不应将思想内容的表达划分为产品( [5] , p. 5)。换言之,航空图表属于是一种技术性的工具,而图书则是使用这种工具的说明书,所以将航空图表看作产品,而如何使用性质的书则是属于思想表达。那么现在反观生成式人工智能,以ChatGPT为例,能够生成文字、图画、代码等,能对客观事实的陈述以及做出价值判断,还能与此随意娱乐聊天,还能回答专业性问题。生成内容覆盖面极广,不能统一认定为产品或者思想表达,所以对生成式人工智能创作的内容需进行分类讨论,对于高技术性、专业性的内容,可适用严格责任即过错推定责任,不一定就直接采用无过错责任,这样将加大开发者等责任主体承担侵权责任的风险。而对于思想或者观念表达的内容,开发者等责任主体更不应该承担无过错责任。虽然我国已将人工智能纳入立法规划之中,但对于人工智能法律责任承担的具体路径机制建构尚未规定4

若生成式人工智能体产品内部不存在缺陷,而是第三人因素介入,比如黑客的侵入篡改生成式人工智能数据侵害他人合法权益,那么开发者等责任主体和具体侵权行为人即黑客承担过错责任,依据《民法典》第一千一百七十五条规定,损害是由第三人即黑客造成的,应当对此承担侵权责任;若生成式人工智能体侵害的是个人信息法益,那么根据《个人信息保护法》第六十条第一款,个人信息处理者则适用过错推定责任,而非个人信息处理者的侵权责任则适用《民法典》规定的过错责任。

6.2. 人工智能致人损害适用的归责原则

根据一般侵权责任即过错责任,由原告举证被告存在过错,被告才对此承担侵权损害赔偿责任。但是就生成式人工智能所创作的内容而言,是基于输入学习的庞大信息数据库,据GPT-3研发者称该模型参数已高达1750亿个 [5] ,其复杂程度难以想象。由此出现算法黑箱问题即整个运行过程缺乏可解释性和透明度 [6] 。所以被侵权人不管是在输入信息的对错证明还是运行过程中还是设计过程中证明有开发者等责任主体的过错,是相当困难的。对此笔者认为采用过错推定责任,将举证责任由被告承担是非常合理的 [7] 。

6.3. 生成式人工智能虚构信息导致侵权的归责原则

在这个互联网已经发展非常成熟的时代,虚假信息的泛滥已成普遍现象。国内外有许多研究指出生成式人工智能可能生成大量虚假信息 [8] 。此时存在两种侵权情形,一是生成式人工智能所虚构的信息侵害他人名誉权等;二是用户利用生成式人工智能生成的虚假信息对第三人造成侵权。

对于第一种情形,笔者认为生成式人工智能侵害他人名誉的完全可以适用普通的名誉侵权情形,由人工智能的开发者等责任主体承担损害赔偿责任。

而对于第二种情形,虽然一般侵权责任制度框架可以包含由虚假信息(陈述)造成的侵权责任问题,但笔者认为仍可以借鉴美国《侵权法重述》第二版,将虚假陈述分为人身损害和物质经济的虚假陈述,紧接着再次分为故意、过失和无辜虚假陈述,对其侵权责任承担也有细致的归责路径( [5] , p. 11)。而对我国面对新型侵权方式方面的侵权责任程度和损害程度以及后续的赔偿力度仍是有参考价值的。

7. 结语

人工智能的发展趋势已势不可挡,造成的影响也将迅速扩大,对目前人工智能所显露出的问题,我们不应该视而不见,迎接人工智能时代的到来以及挑战,更应承认我们现在的法律体系无法完全涵盖当前所有的问题,对此也存在部分立法空白。根据人工智能自身特点以及侵权特点,做出针对性措施,将责任承担具体归责路径、侵权责任认定、合理分配损害风险和损害程度在一般侵权责任中完善并不断探析及加以具体规定。特别应考虑生成式人工智能能否拥有法律人格和被侵权人举证的难易程度这两点关键因素,明确人工智能侵权问题方面的价值判断,才能够平衡侵权人与被侵权人之间的利益。为此还可借鉴国外对人工智能所做出的法律规制初步框架建构以及具体细则,才能应对实践中足够复杂的法律问题。

参考文献

NOTES

1中国经济网. ChatGPT因数据安全问题遭多国监管调查网安企业能否助其跳出“潘多拉魔盒”?.(2023-04-17).[2023-7-19]. http://tech.china.com.cn/ai/20230417/395489.shtml.

2南方周末网. ChatGPT写诗大赞拜登:是造福人类还是洗脑工具?.(2023-02-07).[2023-7-19]. https://www.infzm.com/contents/243222?source=131.

3前瞻网. 全球首例!澳洲地方市长或就诽谤信息起诉ChatGPT,索赔超90万。(2023-04-07).[2023-7-19]. https://t.qianzhan.com/caijing/detail/230407-e44a7432.html.

4国务院办公厅于2022年5月31日印发《国务院2023年度立法工作计划》(国办发〔2023〕18号)将“人工智能法草案”列为预备提请全国人大常委会审议的立法草案中。

参考文献

[1] 徐伟. 论生成式人工智能服务提供者的法律地位及其责任——以ChatGPT为例[J]. 法律科学(西北政法大学学报), 2023, 41(4): 69-80.
https://doi.org/10.16290/j.cnki.1674-5205.2023.04.013
[2] 邓腾. 人工智能产品的侵权责任界定问题[J]. 中阿科技论坛(中英文), 2023(4): 141-145.
[3] 周书环. 聊天机器人的法律人格争议与传播侵权责任研究: 基于ChatGPT场景视角[J]. 南京社会科学, 2023(6): 90-99.
https://doi.org/10.15937/j.cnki.issn1001-8263.2023.06.010
[4] 韩雨潇. 人工智能创作物版权侵权风险及其法律规制探析[J]. 科技传播, 2022, 14(13): 30-33.
https://doi.org/10.16607/j.cnki.1674-6708.2022.13.026
[5] 周学峰. 生成式人工智能侵权责任探析[J/OL]. 比较法研究: 1-16. http://kns.cnki.net/kcms/detail/11.3171.d.20230714.1413.004.html, 2023-07-21.
[6] 王莹. 算法侵害责任框架刍议[J]. 中国法学, 2022(3): 165-184.
https://doi.org/10.14111/j.cnki.zgfx.20220511.009
[7] 蔡雨恬. 论人工智能侵权中责任主体的认定与责任规制路径[J]. 中阿科技论坛(中英文), 2022(9): 195-200.
[8] 支振锋. 生成式人工智能大模型的信息内容治理[J]. 政法论坛, 2023(4): 42.