1. 引言
近年来,随着科技的发展,人工智能技术实现了飞跃式进步。智能机器人Alphago战胜世界围棋冠军李世石、具有人类外观的机器人“索菲亚”可以理解人类语言并与人流畅交谈、微软机器人“小冰”所创作文学作品的水平已与人类无异。除此之外,人工智能产品也日渐融入社会生活之中,比如智能扫地机器人、酒店的智能送餐机器人、无人驾驶汽车、智慧医疗服务、人脸识别、智能语音识别等,我们已经处于人工智能大爆炸的时代。科技是把双刃剑,智能机器人在走进人们生活给人类带来便利的同时也产生了一系列法律问题,比如无人驾驶汽车交通事故、智能机器人侵权、人工智能生成物著作权归属等,使当下的法律规则和法律秩序遭受前所未有的冲击与挑战,也引发了人们对于人工智能参与法律关系、权利义务配置以及法律责任的承担等诸多问题的讨论与研究。
我国目前法律规范中并未对人工智能的法律地位做出明文规定,2019年北京互联网法院对国内首例人工智能生成内容著作权案做出宣判,在判决中明确计算机软件自动生成的文字内容不构成作品,实际上否定了人工智能作为法律主体的资格1。从世界范围来看,各国都以非专门立法的形式侧面回应了人工智能的法律地位问题。美国和英国对人工智能的法律规制主要见于对自动驾驶汽车的法律规定,无论是美国的《自动驾驶汽车法案》还是英国的《汽车技术与航空法案》都否定了自动驾驶汽车作为责任主体的法律地位,将人作为最后的追责主体。与美英两国不同,欧盟和日本对待人工智能的态度比较积极,在欧盟的一项法律议案中,人工智能的身份被定位为“电子人”,日本已有机器人获得户籍的先例,其也倾向于将人工智能推向法律主体地位来解决权利归属和责任承担问题,但是即便对人工智能的法律主体地位持积极态度,也未有法律明确规定将人工智能作为法律主体。
明确人工智能的法律地位,回答智能机器人是否具有法律主体资格,是解决上述法律问题的根本所在。一方面,人工智能法律地位的认定是人工智能法律体系的基石,为后续权利的赋予、义务的设定以及责任的划分等法律框架的构建奠定基础。另一方面,对于人工智能法律主体资格的研究体现了科技与法律的密切关联,科技进步能推动法律进步,科学技术的发展影响法律的内容,扩展法律的调整领域和范围,也会引起传统法律原则和概念的变化。而法律在一定程度上对科技的发展也有影响,法律为科学技术活动提供必要的准则,为科技的发展提供稳定的社会环境,完善的法律体系将促进科技成果转化。研究人工智能法律地位问题,会引导后续我国人工智能技术相关的发展规划,在为人类提供便利的前提下,推动智能技术更好、更快、更高质量的发展,充分发挥出科技推动经济发展的作用,助推社会进步。
2. 人工智能法律主体资格的理论争议
2.1. 人工智能概述
人工智能这一概念最早在1956年由John McCarthy提出,他认为人工智能是能够和人类一样进行感知、认知、决策和执行的人工程序或系统。人工智能的核心是以大数据为支撑运用算法运算模拟人类智能,是模拟人类大脑创造的科技产品,是为人类服务的工具。时方教授认为,人工智能作为计算机学科的研究分支,旨在建立智能计算及系统,实现机器模拟人的某些思维过程和智能行为,如学习、推理、思考、规划等 [1] 。吴汉东教授认为,人工智能是关于模拟、延伸和扩展人的智能的应用系统,它模拟并展示人类的智慧能力,能够像人类一样记忆、认知、识别、选择,使人与机器人之间的虚拟交互等同于人与人之间的现实交往 [2] 。
根据人工智能的理性程度可以将其划分为两种类型,弱人工智能和强人工智能。弱人工智能具有机械性,只能完成人类预先设定的目标,虽然在特定领域具有高度类人的智慧,但其整体的认知水平与人类存在较大差距,并且它不具有人的能动属性,仅是在程序的设定下和人类的操控下实施活动,具有被动性和工具性。强人工智能具有自主性和创造性,可以像人类一样有创造性有目的的实施某种行为,并且具有独立思考和快速学习的能力,对于所遇到的问题能够进行独立思考和分析,是一种在各方面都高度接近人类智慧的智能体。严格而言,现在的人工智能尚属于弱人工智能,其法律地位与未来的强人工智能或超级人工智能的法律地位是无法比拟的,而强人工智能仍处于科幻领域。
2.2. 人工智能法律主体资格的理论争议
长期以来,受“人类中心主义”的影响人工智能体被理所应当的归入“物”的范畴,但是,随着自主学习、智能识别、仿真模拟等技术的发展改进,人工智能的类人化程度大大提高,越来越多的学者反对将其作为法律客体,并提出赋予人工智能体以法律主体地位的倡议。然而也有部分学者认为人工智能不符合法律对“理性人”的定义,其不具有认知理性和行为理性,本质上是一种数字理性,因此不能赋予人工智能法律主体资格。两派学者各执一词,争论激烈。同时,在支持和反对之间,还存在一种有限支持的观点。综上所述,对于人工智能体是否具有法律主体资格的问题,目前学界存在较大争议尚未形成统一的观点,不同学者有不同的看法,总体可以分为三种观点即肯定说、否定说与折中说,而主流观点内部又存在些许差别。
肯定说包括拟制人格说、电子法人说和电子人说。拟制人格说的学者认为人们可以像拟制法人一样,在法律上拟制一个新的主体,使人工智能体与法人具有同样性质的法律地位,赋予其独立的法律人格,允许人工智能体以自己的名义独立参与法律关系,同时借鉴法人制度建立人工智能登记备案制,以完善人工智能的法律责任制度 [3] 。依照这种观点,人工智能体是具有法律主体地位的,其法律主体资格来源于法律拟制,它在法律关系中的地位与自然人和法人是平行的。电子法人说认为人工智能既不是自然人,也不是普通之物。人工智能的本质是财产不具有人身性人格,但具有财产性人格,其行为能力和责任能力仅限于财产而不能及于人身,主张将人工智能归入法人范畴,作为一种新的法人型民事主体,即电子法人 [4] 。按照电子法人说,人工智能体可以作为法律关系中的主体,但是其人格是有限制的。电子人说认为人工智能具备法律人格,其人格是电子人格,认为法律可以通过赋予一定的权利与义务来确立智能机器人“电子人”的法律地位,使其成为一种独立类型的法律主体,依法享有权利能力和行为能力,权利能力始于注册登记终于注销登记,行为能力则按照智能程度来划分 [5] 。
否定说包括工具说、控制说和人工类人格说。工具说认为人工智能是在计算机或者其他设备的指令下模仿人类行为的软件系统,本质上是为人类服务的工具,它的行为不具有目的性而是人为设计和操控的,人工智能的意志和学习的知识都是人类通过技术手段为其创设和存储的,根本不具有人之心性与灵性,不能赋予其法律主体地位 [6] 。控制说也认为人工智能不具有像人类一样的自我意识和意志能力,无法直接享有法律主体资格,同时它也没有像法人一样的责任能力,模仿法人制度来拟制一个新的法律主体也是值得商榷的。就目前而言,人工智能依旧受人类控制,不应该获得法律主体资格 [7] 。人工类人格说主张智能机器人不具有生命、意识,因此不具有自然人格,同时它也不是自然人人格的集合,因此也不具有法人拟制人格。智能机器人所享有的是通过人工制造的,类似于或者接近于自然人格的人工类人格。不论智能机器人的智慧发展到何种程度,它也不具有自然人的人格。仍然属于物的范畴,是权利客体,而不是民事主体 [8] 。
也有部分学者持折中的观点,例如有限人格说,他们主张人工智能可以经过不断的发展演化来强化它的自主意识,可以独立完成某些行为,取得法律人格,但是它的人格是有上限的,因为它不能和自然人和法人一样可以独立承担法律责任。并主张提出根据人工智能的自动化程度来划分不同的行为能力 [9] 。
3. 法律主体资格的认定标准
3.1. 法律主体的内涵
法律主体是法学理论研究中最基础、最主要的概念,认定人工智能是否具有法律主体资格、确定人工智能的法律地位,首先应明晰法律主体的内涵。受制于经济发展水平的高低,不同历史时期法律主体的内涵不同,法律主体的范围经历了从罗马法时期部分人具有法律人格,到《法国民法典》规定人人享有法律人格,再到《德国民法典》创设“法人”制度的发展变化。不同学者对于法律主体的概念也有不同的理解,奥地利法学界凯尔森认为法律主体是指实际参与到法律关系之中从而实际享有权利、履行义务和承担责任的人或者实体。法国法学家狄骥认为精神健康能够理解自身行为并且按照自我意志做出行为的客观存在才可以成为法律主体。沃克认为,法律主体并不局限于生物意义上的人,法人、团体等也可以成为法律主体。根据我国现有法律规范,法律主体就是在法律的规范和调整下,享有权利、负有义务并且应当承担责任的自然人或者是拟制主体法人。换言之,法律主体就是具有法律制度规定的权利能力,可以享有法律赋予的权利同时也要遵守法律规定义务的实体存在。同时,作为法律主体应当能够理解法律,明白在法律的秩序框架之下,其可以拥有什么权利,履行什么义务,在违反义务时又应当承担什么法律责任。
3.2. 法律主体的认定标准
根据我国法律规定,目前的法律主体有以下几类:第一是自然人,具备生理、心理要素的人是天然的法律主体;第二是法人,法人作为法律主体是法律拟制的结果;第三是国家,国家作为一个法律主体对外参与国际法律关系,对内参与行政法律关系管理各项事务,有时也可以作为民事主体与自然人、法人等进行交易活动;第四是其他组织,比如我国法律规定的合伙企业、个人独资企业等,也可以以自己的名义参与法律关系。
自然人构成法律主体的基本要素包括生物因素、理性因素、能力因素和社会因素。自然人首先应当是生命有机体,是由多种生理器官构成的“人”的实体,这是法律人格的客观载体。其次,人脑的存在使自然人能够进行自主学习和理性思考。自然人之所以天然的成为法律主体就在于其具有主观能动性,具有自由的意志以及理性思维。自然人的理性是人生来便具有的本能,这一本能决定了人类能够自主地认识自己、认识世界、把握世界客观规律和事物发展规则,并以此为基础能动地改造世界、创造新事物、解决新问题。除此之外,一个理性的主体应当是一个意志自由可以控制自己行为的人,所谓自由意志是指具有明确的目标,能够进行独立思考、决策和执行。再者,自然人因为自身理性获得权利能力后便可以实际参与法律关系,这就是其行为能力,权利能力是作为法律主体的前提,而行为能力则是自然人法律主体地位的实际体现,只有以自己的行为实施法律行为与其他主体之间建立起法律关系,才能将法律规定的权利和义务落实到现实之中。最后,自然人具有社会属性,任何人都不可能脱离社会而存在,自然人在社会中生活、学习与交易,不可避免的与其他自然人或者组织发生纠纷,而法律作为维护社会秩序的行为规范,必然要赋予自然人法律资格以便于进行管理和规制。
法人可以作为拟制法律主体,主要是基于对其社会价值的考量,是社会经济发展的必然结果,一方面是便于主体之间进行交易,另一方面是为了降低投资风险。首先法人组织具有实体基础,它以自然人为其存在的前提,以自然人的出资为其实施法律行为和承担法律责任的物质基础,法人行为的背后仍然是自然人的集体理性和智慧的表现,因此,法人等组织体与自然人两者内部存在着实质关联,他们都属于人类的范畴。其次,法人也具有社会属性,在内部社会关系中,法人在法律规定或者法人章程规定的程序下进行讨论、表决和行动,是团体成员共同意思表示的结晶,在外部社会关系中,法人与其他法人或者与自然人之间发生交往和交易关系,其活动具有社会实践性。所以法律赋予法人以权利和义务,并规定由其自身承担法律责任。最后,法人还具有行为能力,能够以自己的名义实施法律行为,并且具有支持自己行为的独立财产,能够以其财产独立承担法律责任,符合作为法律主体的规范要求。
4. 人工智能法律主体资格之否定
4.1. 人工智能无权利能力
通说认为,权利能力是指法律主体参与法律关系从而享有权利和履行义务的资格,也可以认为是一种能够被实际赋予法律主体地位的能力,因此是否具有权利能力是判断某一存在是否具有法律主体资格的标准。而人工智能不符合权利能力的基本构成要件,一方面,人工智能不能等同于自然人,人工智能表现出来的高度智慧性是依托其系统内部预先设定好的算法和编程,进行计算和执行人类命令的结果,其本质上是机器智能的逻辑运算,没有产生自我的独立意志,没有形成人类最基本的三观与道德,本质上还是一台机器。另一方面人工智能也有别于拟制法人,无法通过拟制的手段获得权利能力,因为法律拟制技术最初赋予社会组织和团体以法律人格是出于对团体能够形成独立的意志的考量,法人的背后是自然人与财产的集合体。而人工智能是人类改造客观世界工具性产物,是人类知识和技术的载体,其既不体现团体意志,也无自己实际控制的独立财产,似乎并没有达到法律拟制技术使用的条件 [10] 。权利能力不仅包括享有权利的资格还包括履行义务的资格,权利与义务是构成法律主体的一体两面。法律义务是指法律规定的为某种行为或者不为某种行为的约束,是由国家强制力保障实施的,违反义务将承担相应的法律责任。履行义务的前提是理解和明白义务的内容和要求,而人工智能显然不具有理解法律并按照法律规范行动的能力。
4.2. 人工智能缺乏理性和自由意志
现代法律主体是理性法律主体,这是法学界通识。人之所以具有法律人格,能够成为适格的法律主体关键在于人具有理性能力 [11] 。首先人工智能并不具备人之理性。根据康德的观点,人们之所以能和其他物件区别开来,就在于人类具有理性。理性不仅是人类认识并理解自然世界背后的客观规律和本质的能力,也是人类识别道德规范和法律规制并据此指引自己行为的能力。理性使人们成为认知主体、判断主体的同时,还塑造了道德主体。人工智能在某些领域展示出来的超出于人的智慧并不是基于其本身的理性,而是基于编程和运算,它无法跳出人们预先设定的规则进行自我认知和是非判断。即便是认为人工智能通过数据分析、算法运算可以表现出一定的自主性或者通过深度学习进行自我修正,具有一定的思考能力,但其也并不具有道德意义上的理性,其对于是非的判断也不是基于自身的道德要求而是基于程序设定。
自由意志主要是指实施行为的主动性,不受任何外部因素的影响和支配,拥有自由意志是法律主体参与法律关系实施法律行为的重要条件,意志自由是承担责任的前提。在民法中,行为人意志自由是民事法律行为有效的关键因素,在刑法中,主体的意志是否自由也是判断其是否承担刑事责任的根据之一,可见自由意志是衡量法律主体资格的重要标准。人类的意识活动是生理和心理共同作用的过程,具有主观能动性,而人工智能是受命于人、无意识的机械物理过程。人工智能自诞生之初便是以“为人类社会发展提供服务”这一目的而被创造出来的,其看似独立自主的行为实际上仍然是受到特定算法支配的、执行人类的命令的机械行为。人工智能既不是自然人也不是人的集合组织体,其所实施的行为和活动并不是集合多数人的意志,而是自然人通过自己的独立意志所设定程序规则的展现。算法仍然是人工智能的核心工作环节,人工智能所谓的“独立意志”都是算法作用的结果,因此,支持者所说的自主性实质上是一种被动意志下的自主性 [12] 。
4.3. 人工智能不能独立承担责任
人工智能不是适格的责任主体,法律主体在享有权利的同时也应当履行义务和承担责任,责任能力是指主体在自己行为违反约定或者法律规定的义务时承担相应惩罚性后果的能力。法律主体应当具有责任承担的能力不仅仅指承担财产或者物质损失的能力,也包括精神上、政治上的能力。人工智能体无法独立承担法律责任,首先在于其没有属于自己的独立地占有、使用、收益、处分的财产,包括货币、房产、知识产权、股票、债券等。财产是法律主体参与法律活动的必要的物质基础。即便在未来科技进一步发展,没有自身利益诉求的人工智能体本身也不可能拥有属于自己的独立的实体利益,人工智能体只能是在所预设算法的控制下,机械地以原有轨道辅助其使用者获得利益。有学者提出可以建立专门的人工智能保险制度,通过保险来解决人工智能的责任承担问题,使被侵权人易于主张赔偿请求的同时也可以通过专门保险公司获得相应的赔偿金,同时也可以打消人工智能研发者因害怕承担责任而不敢进行科技创新的顾虑。但是保险制度的建立并不意味着人工智能体就享有独立财产权,强制保险制度使人工智能体的研发者、使用者和所有者免于承担责任并不等于人工智能可以为自己的行为担责,保险池中的资金仍然是由人类投入的并非人工智能所有,人工智能体依旧没有独立财产权。
人工智能不具有服从法律规范的期待可能性,也无法感知其违法行为对社会造成的不利后果 [13] 。人工智能不具有悔过能力,对于法律给给予的否定性评价和惩罚,不具有反省意识。承担法律责任的方式不仅包括财产性给付和物质性赔偿,还有一些非物质性的法律责任的承担方式,比如责令赔礼道歉、责令停止实施侵权行为、限制或者剥夺责任人的行动自由等。人工智能是不具备人类丰富情感的机器,其本身并无社会伦理道德可言也没有对法律制度的敬畏之心,缺乏对于法律惩罚的感知能力,它对于自己实施的违法行为完全没有内心的愧疚与责难,更不能够在意识到自己行为违反法律后进行自我纠正。而且,人工智能无法像人一样被采取强制措施,我们不能对人工智能体采取限制人身自由、剥夺生命等惩罚,即使对其进行拆解部位、断电删除数据、改装重做等,也不能等同于限制自然人的自由、剥夺自然人的生命,无法实现惩治效果也无法预防违法犯罪行为的再发生,这在法理和情理上难以为人们所认同和接受。综上所述,人工智能的法律责任的承担最终还是落在其背后的自然人的身上,对人工智能体本身进行法律惩罚是没有意义的,人工智能不具有承担法律责任的能力。
5. 人工智能法律地位的认定
5.1. 人工智能法律地位:法律客体中的特殊物
现行法律框架的构建遵循的是“主–客”两分的二元理论,法律主体是法律关系中享有权利者和义务承担者,与之相对应的是法律客体,也就是法律规定的法律主体在行使权利和履行义务过程中所指向的对象,包括物、人身利益、智力成果以及行为。人工智能满足法律客体的构成要素,应当归入法律关系客体的范畴,并且属于法律客体中的特殊物。首先人工智能体具有实体性,它是被人类创造出来的机械产品,以计算机程序为核心并通过某种载体表现出来,是智能性与有体性的统一,它以有体物的形式出现在人们的视野中,通过各种物理形态展现出来,可以为人类所感知。其次人工智能具有价值性,物是能够满足人们某种需要的、能为人类所利用的具有价值的存在。人类设计制造人工智能的本意就是从中获取一定的物质利益和经济价值,作为人类智慧结晶的人工智能体,是人类通过技术手段来进一步提高劳动效率、解放生产力的工具,是社会财产的一部分,具有价值性。人工智能体也具有可支配性,一方面在设立时,人工智能的功能和样态都是根据人类的需求决定的,另一方面在运行中,人工智能是在人类所设定的程序范围中进行工作的,即使人工智能可以进行某些自主行为,也根本离不开人类的命令预设,始终处于人类的控制范围。
5.2. 人工智能法律客体地位的合理性
人类与人工智能和谐相处的基本前提就是以人为主体,人工智能为客体,强硬将人工智能体划入法律主体的范畴,将会威胁人类的主体地位导致社会关系的混乱。不论人工智能有的功能有多么强大,外观与人类多么相似,它都是为人类服务的,是具有从属性的而不是作为主体具有独立性。人工智能视为法律客体在现有法律框架之内进行规制有利于维护法秩序的稳定,倘若赋予人工智能法律主体地位,就需要进行法律体系的全面革新。如果将人工智能体视为法律主体,在人工智能侵权问题中,证明人工智能体在无人管控下的自由行为与侵权损害结果之间的因果关系是十分困难的。在人工智能体生成作品的著作权归属问题中,将著作权归属于人工智能本身,也可能会损害人工智能体程序研发者与使用者的利益。在人工智能非主体性的情况下,由于人工智能的设计者和管理者无法通过人工智能本身来减少自己因涉及和管理漏洞所导致的法律责任,从而不得不在设计和管理的过程中更加注意采取有效的措施控制人工智能侵权行为的可能性,客观上有利于加强人工智能设计和管理人员的注意义务及强化相关人员的谨慎、安全义务 [14] 。相比于法律主体,作为法律客体的人工智能更有利于保护人类的中心位置,法律责任的承担也更为明确。
5.3. 人工智能法律规制构想
否定人工智能的法律主体地位并不意味着对人工智能所造成的法律问题放任不管,在确定人工智能法律客体地位的前提下,我们需要对人工智能创造物权益的归属与侵权责任的承担找到一个合理的解决路径。正如前文所述,人工智能并不具有法律主体资格,仅能作为法律客体而存在,但是否定人工智能法定主体资格不等于否定人工智能生成物构成著作权法意义上作品的可能性,人工智能自主创作的达到著作权法创新性要求的生成物,可以被认定为著作权法中的作品,只是人工智能体本身并不能成为其创作物的权利主体,其权利的主体是人工智能相关人 [15] 。人工智能无法独立承担责任,其致人损害的责任还需由其背后的自然人等传统法律主体承担,因此应当将人工智能纳入现有侵权法律规范框架之下进行调整。一方面,人工智能本质上是一般科技产物,是人类为满足自身的需要制造出来的,通过市场流通进入人类生活,符合民法典侵权责任编中产品责任中“产品”的定义,属于一般科技产品的范畴。另一方面,人工智能侵权的行为也不是基于其本身的自由意愿,是人类利用人工智能体实施具体行为所导致的后果,因此,人工智能侵权责任可以纳入产品责任体系中予以解决。并且由于产品责任中无过错规则原则的运用,可以更加有效地对人工智能产品的设计者、制造者或者销售者的行为进行规制,更有利于保护受害者的权利。综合上述考量,人工智能产品侵权的法律问题应用《民法典》侵权责任编、《产品质量法》和《消费者权益保护法》等法律规范调整。
6. 结语
法律主体作为法律上可以享有权利和履行义务的资格,是对人的理性价值与责任能力的肯定,虽然随着社会的进步和经济的发展,法律主体的范围逐渐扩大,但无论法律主体如何扩张,都必须以满足主体要素为基本前提。现在的人工智能仍然处于弱人工智能阶段,虽然具有一定的类人性,能够进行一定思考和行动,但其无法达到人类理性的高度,无法自由表达意志,同时人工智能不能拥有独属于自己的物质财产,缺乏责任能力,不能归于自然人范畴。从法律拟制的视角来说,人工智能与法人也有着本质的区别,法人是人的集合,具有意志能力和行为能力,而人工智能是机械,法人拥有独立财产可以独立承担责任,而人工智能不具有自己的财产,因此也不能将人工智能归于法人的范畴,除此之外,利用技术手段将人工智能拟制为法律主体也不具有巨大经济价值的需要。人工智能应当是为了帮助人类自身发展而诞生的,人类是主体,人工智能是客体,符合法律客体的构成要件,具有有体性、实用性和可支配性,认定人工智能法律客体的地位有利于维护法律体系的稳定,在现行法律框架之内对人工智能所产生的法律问题进行规制,不仅有利于人工智能生成作品的权利保护,也更方便人工智能侵权时受害人的救济,以平衡各方利益。人工智能技术的发展必需以人为核心价值和社会本位,将人类的生存和发展作为整体目标,让人工智能更好地服务于人,增进人类福祉。
NOTES
1参见北京互联网法院(2018)京0491民初239号民事判决书——北京菲林律师事务所诉北京百度网讯科技有限公司著作权侵权纠纷一案。