1. 引言
在人工智能算法被快速应用的“第三次人工智能浪潮”背景之下,算法所带来的侵权问题逐渐显现出来。算法内部“黑箱”运行的封闭性和高度专业性阻断了普通个体的认知和探索,使算法侵权的认定和救济成为悬而未决的难题。人工智能算法利用这种科技优势开始对社会拥有控制力和影响力,人类对其依赖逐步扩大,“算法权力”正在悄然兴起。如何规制和救济人工智能算法侵权成为全球社会都面临和亟需解决的新问题。
2. 人工智能算法的法律属性
2.1. 人工智能算法的法律主体资格
目前学界对于人工智能法律主体资格的获得大多持否定态度 [1] 。主要理由如下:人工智能不存在意思能力和内在感知力,不可能有生命和生命权,以及一个责任承担主体所具备的良知、道德和伦理。人工智能机器人虽然具有人工类人性,但基本属性仍然是物,不必改变民法的基本理念和基本规则。
但是目前仍然存在部分学者认为应当赋予人工智能法律主体的资格 [2] 。“人工智能与法人类似,法人可以获得法律主体地位,人工智能亦应当可以”;“给予非人类的作者或者发明人以法律人格,能够激励人类利用人工智能或者动物的创造能力”。
还有一部分学者对该问题持折衷态度。应当在原则上坚持人工智能是法律课题,但在特定情况下,可以运用法律拟制技术将其认定为法律主体。人工智能虽然具有法律人格,可以独立自主的实施法律行为,但其并不具有承担完全责任的能力与地位,其所获得的人格属于有限法律人格。
通过上述对学界观点的梳理可以看出,目前否认人工智能的法律主体地位仍然是主流意见,但主流意见之间仍然存在差别,一种是绝对否定的态度,认为人工智能不可能产生人类的生命、情感或良知等因素,因此不具备获得法律主体资格的可能。而另一种是基于人工智能的发展水平而持部分肯定的态度,认为不能完全排除今后人工智能的发展会给予法律主体资格的可能。
在目前的科技发展水平下,人工智能算法的法律主体资格不能脱离人工智能发展水平而单独讨论。人工智能立法是一部未来法,必须具备一定的前瞻性。从现阶段的人工智能算法的发展进程来看,其仍然不具备法律主体资格 [3] 。理由主要有以下几点:
第一,现阶段的算法不具备自我意识,无独立承担法律责任的能力。人工智能算法多应用于推荐、排序、帮助人类决策等问题,表面上看是代替人类思考,并且由于其具有深度学习和自我更新的能力,使其输出结果不再受到程序员的控制。然而,即使是层次再丰富的算法,也仅仅是依据人类程序员提前设定的指令进行海量计算的结果。由此可见,算法并不具备类人类的自我意识,也并不能自我做出决策,因为算法的更新迭代仅仅是因为其所依托的数据进行了更新,并非产生自我意识,更无法改变被人类预设的自身。
第二,人工智能算法的法律责任应当由人类承担,没有给予其拟制人格的必要。从法人角度来看,法人之所以被赋予拟制人格,是由于法人拥有独立的财产,可以独立承担法律责任,而人工智能算法并无独立财产,更无法像法人一样拥有独立的财产。
综上所述,现阶段人工智能算法仍然不具有拥有法律主体资格的条件。尽管不排除今后人工智能发展到一定程度后成为法律主体的可能性,但目前为止,人工智能算法还有很长一段路需要探索。探讨人工智能算法所谓法律客体所产生的侵权责任如何救济,具有更强的现实意义。
2.2. 人工智能算法的法律客体资格
2.2.1. 人工智能算法作为商业秘密
根据算法固有的特征以及商业领域内对利益追求的最大化,算法经常被纳入商业秘密的范畴,并且在实践中也被视为对算法最为常见的处理方式。我国的司法实践也支持这一论点。例如,在豆子飞与高途乐公司侵害技术秘密纠纷案中,豆子飞原为高途乐公司的图像质量工程师,离职五天后在网站公开披露了该公司核心技术“图像瑕疵检测算法”。法院明确认为该“相机质量瑕疵检测方法构成商业秘密”,1并且豆子飞的行为属于“通过信息网络实施的侵害技术秘密行为”。除了法院直接认定算法属于商业秘密之外,司法鉴定机构对算法商业秘密属性的鉴定亦持有肯定态度。
可见,虽然人工智能算法权利人首选商业秘密模式来保护算法已获得过司法实践的支持,但算法商业秘密属性对社会平台民众权益的冲击,也逐渐被大部分学者察觉并重视 [4] 。若将算法确定为商业秘密并且不加以任何其他法律规制,算法黑箱将合法化,利用算法侵害利益的行为将愈演愈烈。
2.2.2. 人工智能算法作为著作权客体
人工智能算法源自于计算机软件的开发,现有知识产权法对计算机软件通常采取著作权的保护方式。我国《计算机软件保护条例》规定,计算机软件的权利人享有著作权。算法作为计算机软件的重要环节和组成部分,却无法获得计算机软件著作权的保护,原因在于算法属于思想而非表达。算法作为问题的解决方法和步骤,是程序的基础,是程序需要实现的过程,其本身的优劣会影响程序的质量。虽然算法可以通过程序使其核心思想外显成代码并且获得著作权保护,但他人还是可以通过研究程序来获得其背后的算法设计原理,并且通过编写与源程序存在实质性差异,但算法设计原理不变的新程序,这种行为不受著作权法的约束。《计算机软件保护条例》第十七条规定,为了学习和研究软件内涵的设计思想和原理,通过安装、显示、传输或存储软件等方式使用软件的,可以不经软件著作权人许可。著作权只保护表达的价值理念与算法希望思想获得保护的现实需求是根本矛盾的。
2.2.3. 人工智能算法作为专利权客体
算法是否属于专利的问题,在人工智能第三次浪潮来临之前就已经成为专利法上争论不休的问题。最初专利法对程序算法完全持排出的态度。但随着计算机软件的迅速发展,专利法开始逐步接受了部分与程序算法相关的发明。这种改变在我国法律上亦表现得非常明显:由我国国家知识产权局制定的《专利审查指南》第二部分第一章曾作出列举性规定,“计算机程序本身”属于智力活动的规则和方法,不能获得专利保护。2017年,国家知识产权局对《专利审查指南》中涉及计算机程序的发明专利部分进行了修改,虽然进一步明确“计算机程序本身”不同于“涉及计算机程序的发明”,但允许采用“介质 + 计算机程序流程”的方式撰写权利要求。然而,对于“计算机程序本身”的专利属性,法律依然持否定态度。
上述几种对算法属性的研究,事实上也反应了人工智能算法保护的两种路径,商业秘密是属于以非公开路径进行保护,而专利与著作权客体是以公开路径对其进行保护。算法的本质是一种方法或步骤,应当属于思想的范畴。因此,算法不应当成为著作权的课题,因为著作权保护的对象是表达,其可以保护表达出算法的代码,但是无法保护可以由不同代码予以表达的算法。其次,算法也很难作为专利权的客体,一旦作为思想范畴的算法被专利垄断,势必会导致公共空间受到挤压,极大的限制人工智能的发展。因此,在商业秘密与人工智能算法的黑箱特征以及能带来巨大利益的特征高度吻合的情况下,应当承认算法的商业秘密属性。
3. 人工智能算法侵权责任主体确定之困境及突破
目前我国尚无任何专门针对人工智能算法侵权的法律规制。目前对于算法侵权的责任主体,根据既有侵权法律规则通常采取以下两种规则路径 [5] :一是使用产品责任和使用人的过错责任;二是在实践中采取的结果审查路径,选择追究承载该结果的网络平台的责任。
3.1. 传统路径下的产品责任与使用者责任
选择传统侵权责任观点的学者认为,智能机器人是他人设计、生产和制造出来的产品,其进入流通领域后所产生的加害给付应适用产品责任,由产品的生产者或销售者承担责任,例如自动驾驶机动车的侵权责任。
选择适用产品责任对于控制损害有一定的积极意义。当人工智能的生产者因制造产品而获得收益,当产品存在缺陷对受害人造成伤害时,由生产者弥补符合矫正争议的理念。其次,在技术进步的大背景下选择严格责任更有利于保护受害人的利益,由于人工智能技术负责,受害人往往难以证明生产过程中行为人的过错,大大减轻了受害者的举证困难。
在人工智能还不具备法律主体资格的条件时,人工智能产品本质上仍然是物,采用传统的归责原则固然没有问题。然而在人工智能算法领域采用产品责任仍然存在一些问题。首先,算法是通过海量的学习所做出的预测和决策,但是这样的计算仍然不可避免的会出错。或是在绝对理性的计算下所做出的决定仍然会造成损失,该损失很难被认为是算法的缺陷,在这种情况下无法充分保证受害者的利益。
其次,以算法为核心的人工智能系统缺陷,以及缺陷和损害之间的因果关系难以证明。虽然产品责任无需行为人存在过错,但受害人仍然应当证明产品存在缺陷,自身的损害以及损害是由缺陷造成的。我国《产品质量法》第46条规定,产品的缺陷包括1) 产品存在危及人身或财产的不合理危险;2) 若产品存在保障人身、财产安全的国家或行业标准的,不符合该标准即为存在缺陷。人工智能行业正处于起步阶段,目前尚少存在国家或行业安全标准,因此一般需要证明产品存在不合理危险,而人工智能系统是高度专业且复杂的领域,其核心算法又往往是连专业人士都难以进入研究的“黑箱”区域,让普通受害者证明人工智能系统的缺陷几乎无法实现,更无法证明缺陷与损害之间的因果关系。
因此,在确定人工智能算法侵权的责任主体时,的确应当考虑生产者、销售者和使用人在侵权中的作用,但仍然需要考虑算法设计者、修改者以及网络承载平台也可能导致人工智能算法的侵权。
3.2. 结果监管路径下平台责任的强化
对于人工智能侵权,我国还有另一种归责路径,即加强对算法输出结果的审查监管,从而追究承载该结果的网络平台的责任。
我国对网络平台法律责任的不断加强。2016年国家互联网信息办公室明确提出,对于网络信息的责任追究采取“强双责”方针——强化网络主体责任和强化属地管理责任,并尤其将“强化网站主体责任”置于关键位置。平台服务提供者不仅需要对自己发布的内容负责,对于第三方提供的内容,在有些情况下也需要负完全的责任。该主张实际上是要求平台对所有信息承担起主动监控的义务,平台不被告知违法信息则无需承担责任的“避风港”规则开始被淡化。现有算法侵权归责路径完全立足于算法的输出结果而不考察算法的运行过程,因此,法律责任亦仅由结果的承载平台承担。
现有归责路径的形成基于以下两大前提:一是对网络平台“全能性”前提的假设。立法者首先假设了网络平台有能力审查、预防和禁止违法信息的出现或传播。二是对算法“工具性”前提的假设。立法者假设算法仅仅是网络平台所使用的工具,网络平台有权利和能力控制算法的输出结果,所以,对于算法所进行的网络信息推荐和分发,网络平台应该承担起“看门人”的法律义务。
然而,算法并不同于一般的工具,其具有一定的自主学习性。网络平台事实上在很多情况下并没有能力控制由算法生成的信息,算法所导致的侵权责任实际上很有可能是由算法本身的设计等其他原因造成的。虽然这并不意味着网络平台可以免于责任,但综上所述,对于人工智能算法侵权责任主体的归责,不应当仅局限于网络平台一方的责任,而应当综合考虑应用平台、技术者、数据提供者或其他主体在算法侵权行为中所起的作用。
4. 人工智能算法侵权救济的制度构建
人工智能算法侵权在很多情形下,如对个人数据的侵害和算法“杀熟”等均呈现出个体损害较小但受害人数量巨大的特点,由于诉讼成本高而诉讼收益小,个体往往疏于维护自身权益,大量侵权责任请求权处于“沉睡”状态。面对广泛而分散的受害者,将他们的损害集中起来起诉是解决单个诉讼动力不足的最佳思路。我国于2012年创建民事公益诉讼,国外从19世纪中期就开始沿用集体诉讼制度,另外我国还设有共同诉讼制度,均可从现有的制度入手寻求权利救济。
4.1. 民事公益诉讼的可行性探讨
2012年8月经修订后的《民事诉讼法》第五十五条规定:“对污染环境、侵害众多消费者合法权益等损害社会公共利益的行为,法律规定的机关和有关组织可以向人民法院提起诉讼。”该法条标志我国民事公益诉讼的设立,其中与算法侵权相关的主要为“消费公益诉讼”。
然而法律规定至今,消费公益诉讼所发挥的作用却较为有限,消费公益诉讼的诉讼请求权难以包含损害赔偿请求权。2016年2月,为明确消费公益诉讼的具体诉讼规则,最高院出台《消费民事公益诉讼司法解释》,其中第十三条规定,原告请求被告承担停止侵害、排除妨害、消除危险、赔礼道歉等民事责任的,法院可予支持。其特意回避了是否可以提起损害赔偿请求权的问题,而第九条、第十条以及第十六条对因同一侵权行为所产生的个人私益损害赔偿型诉讼的支持,在一定程度上暗示了公益诉讼中请求损害赔偿将难以获得认可。若对算法侵权适用民事公益诉讼,行为人既无需进行损害赔偿,又无法适用惩罚性赔偿,还没有公法上吊销营业执照或罚款等强制处罚,行为人所需负担的违法成本将远远低于算法侵权所带来的巨额利益。因此,由于公益诉讼本质上的公益属性,注定其在救济受害人私益损害方面存在诸多掣肘。
学界对实现公益诉讼与私益诉讼的融合主要有两大思路:第一,对公益诉讼原告另行赋予实体请求权,主张在民事公益诉讼中肯定惩罚性赔偿;第二,主张建立诉讼信托模式或诉讼担当模式,诉讼信托是指个人将其实体权利如损害赔偿请求权授予具有公益诉讼原告资格的主体,以实现公益诉讼与私益诉讼的融合;诉讼担当是指在保留个人实体权利的基础之上,依据法律规定或双方合意将诉讼实施权进行移转,使公益诉讼原告拥有私益诉讼的起诉权。
但该两种模式存在明显的短板,只能由具有公益诉讼原告资格的主体提起诉讼。而从目前公益诉讼起诉主体的消极性来看,其是否能在诉讼信托和诉讼担当中获得像个人维护自身事务一样的起诉积极性仍未可知。
4.2. 算法侵权集体诉讼制度的构建
美国对于受害人数量巨大的小额损害采取集体诉讼制度。集体诉讼渊源于英国衡平法中的“息诉状(the Bill of Peace)”,1849年美国纽约州修订《费尔德法典》(the Field Code)规定“多数成员之间具有共同利益,因人数过多而无法全体诉讼时,得由其中一人或数人为全体成员起诉”,为美国集体诉讼的开端。
与我国民事公益诉讼不同,集体诉讼的主要功能在于请求行为人直接向受害人提供赔偿,以及通过剥夺行为人不当得利来实现预防违法行为的目的。由此看来集体诉讼制度似乎与算法侵权具有天生的完美契合性,美国司法实践中亦早已出现了针对算法侵权的集体诉讼,如在2016年优步(Uber)用户梅耶(Spencer Meyer)作为原告代表向优步联合创始人兼首席执行官卡兰尼克(Travis Kalanick)提起诉讼,指控其通过人工智能算法违法操控定价,包括“激增定价”最高可达基线票价的十倍,该指控获得了法官支持。我国有学者基于集体诉讼的上述优势认为,“面对人工智能的异军突起,未来立法者需要及时转变对集体诉讼的态度并辅之以必要法律基础设施。”
我国法律亦存在类似可以代表其他当事人的多数人诉讼,《民事诉讼法》第五十二条规定,当事人一方或双方为二人以上,其诉讼标的是共同的,或诉讼标的是同一种类、人民法院认为可以合并审理并经当事人同意的,为共同诉讼。算法侵权的诉讼标的一半属于同一种类,在我国立法分类上属于普通共同诉讼。第五十三条规定,当事人一方人数众多的共同诉讼可推选代表人。因此我国共同诉讼亦可称为“代表人诉讼”,代表人诉讼包含人数确定的代表人诉讼和人数不确定的代表人诉讼,算法侵权因受害人范围极广,往往会形成人数不确定的代表人诉讼。
我国现有共同诉讼制度并不能满足算法侵权受害人的救济需要,一定程度上反应出集体诉讼移植的现实必要。事实上在我国证券行业已经出现了接近集体诉讼的代表人诉讼制度。2020年7月,最高人民法院发布《关于证券纠纷代表人诉讼若干问题的规定》,其中创设了特别代表人诉讼,采取投资者默示加入诉讼,明示才能退出的方式,被称为“中国特色的证券集体诉讼”。
NOTES
1广东省高级人民法院(2018)粤民辖终493号。