算法权力异化的主体性风险与规制路径
The Subjective Risk and Regulatory Path of Algorithmic Power Alienation
DOI: 10.12677/OJLS.2023.114356, PDF, HTML, XML, 下载: 179  浏览: 388 
作者: 陈艺苹:扬州大学法学院,江苏 扬州
关键词: 算法权力主体认知技术理性法律规制Algorithmic Power Subject Cognition Technical Rationality Legal Regulation
摘要: 智能时代基于大数据和互联网的算法在社会领域应用越来越广泛。具有自主学习和决策功能的智能算法表现出强大的嵌入性,数字空间中算法对于数据信息处理的高效率,使得算法发展脱离了纯粹的工具范畴,这让算法在资源配置中具备了“去工具化”特征和事实上的技术权力。算法权力不断自我迭代和肆意扩张,打破了人机关系中的原有的权力平衡,引发利益失衡、主体降维危机等诸多异化风险,数字空间中人的主体性受到支配和控制。完善数字空间中算法权力的治理体系,需要从人的认知属性、对算法权力赋予理性和道德、法律规制等多方面进行探索,实现人的主体性价值在算法权力中的重塑与复归,完善法律责任的主体归责,构建算法权力运行机制的评估监督,倡导法律规制下的算法权力走向“善治”与“善智”的理想治理建构模式。
Abstract: Algorithms based on big data and the Internet in the intelligent era are more and more widely used in the social field. Intelligent algorithms with autonomous learning and decision-making functions show strong embedding, and the efficient efficiency of algorithms for data information processing in the digital space makes the algorithm development out of the pure tool category, which makes the algorithm have the characteristics of “de-instrumentation” and the de facto technical power in the resource allocation. The continuous self-iteration and wanton expansion of algorithm power has broken the original balance of power in the human-machine relationship, triggering many risks of alienation such as imbalance of interests and the crisis of dimensionality reduction of the main body, and the subjectivity of people in the digital space is dominated and controlled. To improve the governance system of algorithm power in the digital space, it is necessary to explore from many aspects such as people’s cognitive attributes, giving rationality and morality to algorithm power, and legal regulation, so as to realize the reshaping and restoration of human subjective value in algorithm power, improve the subject responsibility of legal responsibility, build the evaluation and supervision of the operation mechanism of algorithm power, and advocate the ideal governance construction model of “good governance” and “good wisdom” under legal regulation.
文章引用:陈艺苹. 算法权力异化的主体性风险与规制路径[J]. 法学, 2023, 11(4): 2491-2499. https://doi.org/10.12677/OJLS.2023.114356

1. 引言

“图灵”伊始,人工智能技术的问世,迅速内嵌社会生活各领域。我们进入了以虚拟网络为背景、大数据为行为框架、智能算法为运行方式的新技术时代。人力决策、算力运行、脑力创新的高度融合将社会生活引入了互联化、数据化、算法化的智能数字时代。在效率优先的现代社会,智能算法以其自身具有快速、批量化处理海量数据、分析计算资源的最优效率配置,与经济社会进行深度融和。人的生活要素和行为规范、线上线下处理生存必备的物质基础和精神发展空间,无不存在着智能算法的参与。与两千多年前亚里士多德畅想的根据人类需求自行工作的工具逐渐成为现实的同时 [1] ,智能算法以其智能性和自主学习性逐渐脱离了工具化的范畴。智能算法在数字空间中对海量数据信息处理的高效率,并且以数据的收集、分析以及结果输出等方式,制造并占有了具有社会商业价值的数据资产。算法在诸多方面对社会生活产生了影响,构成此种影响可能性基础在于算法的自主学习和决策功能。社会资源配置中算法的参与度和自主性占比越来越高,对个体权力的支配程度走向了难以预测的范畴。人类对算法技术的不完全控制力,使得算法在数据资源配置中具有了事实上的技术权力。算法在人工智能载体和互联网共享传媒资源的基础上,将人们的生存环境构建成数据化和资源化的数字空间,为社会生活提供巨大便捷的同时,智能算法下人的生存状态和社会活动都处于被标记和记录的数据库中,只是作为可计算、可预测、可控制的客体,人的主体性地位受到了干扰。在算法的规则中人与物都是一串数字,人的尊严和人格并不存在,数字空间中人的主体性地位受到挑战。

对于算法权力的规制,必须从人的主体性认知与算法技术发展之间的辩证关系。对算法权力的规制的关键在于将伦理价值融入算法权力之中,使得冰冷的算法技术中有人性的温暖和理性的光辉。从法律规制层面,将算法的不可知性进行透析,设置算法可解释权进行算法对主体侵害的抗辩,通过法律救济途径环节算法与人的主体性之间的利益摩擦。最后,在社会发展整体观上思考法律与算法之间的关系,通过二者秩序的重构,从法律解读理解算法引发的价值问题,将技术与权力、主体与客体的关系出发,对算法权力进行全方位的规制。

2. 智能算法的演变:从辅助工具到新型权力

算法是解决问题或实现特定目标的流程步骤,在有限的资源和资源用确切的、可描述的步骤完成特定目标。从算法的历史溯源来看,算法最初作为数学计算方法被记载,其英文名称Algorithm就是来自于数学领域,20实际的数学家图灵提出的图灵论题,并且提出了图灵机的设想,莱布尼兹的梦想将图灵机与算法等同,算法定义问题得到解决。科技革命中信息技术的发展,算法在计算机方面已有广泛的发展及应用。从狭义上来说,今日所言算法指的是一种计算机软件技术规则,是为了完成某项任务设计的数字化流程,通过路径和机制的设定,运算出相应结果 [2] 。算法是逻辑过程,由机器和数字计算机来实现完全机械化和自动化。

如今的智能时代,大数据存储信息的趋势化对算法依赖性加强,万事万物皆可以数据化生存,数据即是信息与社会利益的载体。海量数据的处理和分析所需的算力使得人工计算能力在数量和质量上存在天然不足,社会资源的分配权力不得不逐渐让位于算法。这使得算法从数学计算程式,发展到计算机程序,到如今与互联网进行深度融合,在公权力决策、私权利行使和社会资源的配置方面起到不可或缺的作用。当算法以解决人的现实问题为主要目的便由技术层面走向社会层面,并与数据资源结合成为重要的新兴社会力量。

算法的权力化源于其在技术上摆脱了“工具”地位。传统技术只是一种工具,而人是主体,人与工具之间存在控制与被控制、利用与被利用的关系。对于数字空间中数据处理的核心在于算法,计算机算力突飞猛进的发展,实现了对海量数据的整理与分析。从技术角度来看,算法的运行程序中,输入层的数据填充、隐藏层的自动化特征提取,数据训练,自主学习、最后在输出层自动生成认知结果 [3] 。实现算法自主决策的“去人类化”。人并不对算法具有完全控制力,算法在数据资源配置中具备了“去工具化”特征和事实上的技术权力。另一方面,从算法运行载体来看,移动电子设备日益普及,加之基础通信设施工程广泛布局,大规模、多场景、全时段、高效率的数据采集成为可能乃至常态,算法搜集分析数据能力的飞跃,依托多媒体的介质传播和物联网强大的线上线下联动,算法模型对于数据潜在规律挖掘能力得到突破,智能匹配人类所需资源能力加强,算法技术成为人工智能应用的核心技术。算法权力的影响力迅速膨胀。

互联网、大数据、算法与人工智能的发展日新月异,智能算法运用着无可比拟的优势,对海量数据样本的全盘分析可能得以窥探事物的全貌,避免人类因有限的观察体验而产生的局限性,可以更为准确地反映客观世界,并尽力排除人的主观因素的影响,由此做出更为科学的承诺:科技正在改善我们的生活 [4] 。算法权力的涵盖行和影响力将技术带入生活,已经嵌入各种社会机构运行之中。从广度来看,小到推送新闻、广告、商品、评估社会信用,大到安排工厂生产、驾驶汽车、飞机、甚至是操控火箭运行、探索太空空间、寻找宇宙尽头。全球流行的新冠疫情将人类活动的主要空间转化到了网络数字空间,依托于算法进行的医疗服务、在线教育、协同办公等数字服务广泛应用,不仅对促进经济发展和产业复兴具有重要作用,而且对于推动国际抗疫合作也具有重要意义。国民经济平稳复苏,新型“宅经济”持续发力、消费方式迅速转变、到家服务升级势头不减,从深度来看,其渗透性和社会功用早已超过大数据统计时期的技术目标。算法权力的智能自主化使得“技术越复杂、越‘高技术’就越具有生物性” [5] 。生物的“算法”通过各种媒介形式得以延伸,从而变成权力性的社会存在。算法权力在智能化发展中呈现出的“主体性特征”,使得我们不能不思考在科技乌托邦中人的主体性的地位以及地方技术对人的统治。

3. 算法异化危机的

3.1. 挑战数据“自决权”

权力在社会学、哲学、和政治学中都是作为核心概念被提及,当特定主体拥有足以支配他人或控制他人资源的能力时,就可称为权力 [6] 。人之所以具备事实上的主体地位,关键在于权力始终由人来掌握,并且有理性地运用权力在有监督的权力运行之间形成平衡。如果技术对人的利益产生事实层面的影响和控制,那么技术就失去了纯粹的工具性而具有权力属性。在人与物的关系中,人应当是对客体物具有掌握和控制权的主体。但是在以算法为依据、以数据为中心的智能时代,传统意义上作为社会主体的人不可避免地被数据化,我们正在被“算法权力”(algorithmic power)全面支配。数字空间中作为主体的人被物化为可识别的代码或程序,而作为可利用的算法客体,并不把人当作主体来看待,只是作为可分析的客体 [7] 。人在数字空间中的存在只是一串符号,人的尊严和人格在离散的数据中不能体现和被分析,只是以“数据人”的存在形式被呈现,成为算法权力运行过程中的一个节点或元素,人对于社会生活的诸多决定权让渡与算法,则传统主客二分范式中人的主体性地位被颠覆,“算法化生存”成为人类新的历史叙事模式,作为主体的人的社会关系的自决权受到了挑战 [8] 。

算法权力将人作为可以被数据程式预测、计算和控制的客体,用机器语言建构和传播来营造一种虚假的社会共识:传媒和代码的无处不在,权力越来越存在于算法之中。塑造人们的认知和行为模式。从人的存在形式而言,每个生命都是鲜活的个体,人是一切社会关系的总和,在社会活动中有着生动多维的日常呈现。然而,在“数据即一切”的灰暗时代,每一个人都被压缩、投影到特定的平面上(往往是“利益的平面”),变得面目模糊,却“数据清晰”起来。在这种超级权力面前,人的主体性面临着被取消的危险。人被压缩成一堆离散的特征值。在算法主宰的数字空间中,人并不被要求具有多维的主体识别特征,而只要求算法提取出来的特征值满足主体的特定要求即可。例如使用淘宝平台进行消费,“只要分析消费者在搜索引擎中的片面输入内容,就可定义用户的消费倾向的特征,从而进行个性化推送,而不需要对主体人作全面的分析。通过算法进行片面和孤立的提取,就可满足商业平台盈利的目的。”算法权力将人作为“对象”甚至是“活动的数据集”。

3.2. 侵犯主体人格尊严

无形的智能算法已经改变了我们生产方式、消费方式和生产关系、社会关系,同时也使得公民权利面对更隐微、更无所不在、更多元化的权力技术的侵蚀。作为主体的人类被迫虚拟、数据化。价值取向角度出发,看似中立的算法带来千人千面的个性化精准信息,一方面改变人的主体性理解,赋予人的自由、自主选择和决策以新的内涵,另一方面在算法深度嵌入平台经济,通过算法进行批量、大规模、系统性的决策,可能会使传统世界中存在的思维偏见、隐私侵犯和歧视问题被系统性放大,对人的尊严威胁 [9] 。在现实空间中人可以通过法律规制和监督形成权力的平衡,保障人的权力和主体性地位免受侵害,但是算法的黑箱制和不透明性使得数字空间的监督实效,人的主体性权利即使被侵犯,也难以自知和维护,人作为被利用的客体,却缺乏手段维护自身利益和主体性。算法的复杂性和专业性,加上国家在算法治理方面的滞后性,导致算法权力的无限膨胀和失控,这使得算法权力发生了异化。异化作为存在于人的发展的本性之中和社会存在的本质之下,其所创造的社会产品也必将被人所支配。算法权力所造成的对主体性的“灰暗”,不能无动于衷。“灰暗”并非“黑暗”:我们置身阴影,但仍能看见光明。我们依然拥有选择去向哪里的权利。

3.3. 冲击传统治理框架

算法本身的高度复杂性和专业性,算法运行的过程中涉及的数据材料和运算程式被以计算机代码的形式呈现,除少数算法研发人员以外,大多数人都不能理解其涉及理念和目标。人工智能所运用的算法,作为一种增强或取代人类分析和决策的特殊决策技术,其决策过程的不可知性、内部复杂性以及风险不确定性也使得数据输入和认知结果之间存在着人们无法洞悉的不透明的隐层,也就是算法黑箱的存在。面对高效运转和内部架构错综复杂的算法决策,传统的治理理路是一种具有先决策性的规制模式。也就是事先洞悉社会矛盾和发展阻滞的存在,通过对先存在进行调查分析寻觅造成苦难的所在,通过至上而下的社会权利运行机构进行规制,综合运用法律法规、行业规范和个人保障进行调整适配,这样的治理框架可以将理性与公平纳入适配制度的全过程。而面对信息更迭和技术革新飞速发展的智能算法,特别是面对算法权利异化造成的危机之时,传统的治理框架面临着对于系统把握的失衡。算法权利的异化,其不仅是智能技术运行理念理解上的偏差,更为重要的是,其结合了社会中原本存在的趋利作用引导下人类决策的不公和武断,使得传统治理方式的僵化和力不从心。并且算法权力具有动态性,算法决策结果可以随着输入数据的调整而改变,这样纷繁灵活的变化,在治理效能上使用传统的规制手段明显不能够涵盖算法异化造成的危机的全过程。算法治理是一项复杂的社会工程,治理理念和法治理路的选择上要更加与时俱进。

3.4. 加剧法律滞后风险

算法自主决策的不透明性导致主观偏差和技术偏差的存在,为算法异化提供了可操作的空间。算法权利的异化也给现存的法律制度和法律秩序带来了冲击和挑战。为了消解和破除其造成的危害,就需要法制层面上积极的调整和应对。我国算法治理的法律规范与智能算法发展理念和社会实际需求方面存在着差距,从立法层面而言,对法律规范进行调整是面对科技赋能带来的副作用的积极应对。而立法程序的前期调研和复杂表决使得法律及时审视算法权力异化造成的非理性后果与侵害风险面前存在着滞后性。法律的调整和改变是对社会基础的及时反映,而算法技术运用的深度和广度随着强人工智能的不断转变还处于更新迭代的阶段,发展迅速与瞬息万变的算法权力造成了现存法律制度与技术发展存在着时空的断差,法律与生俱来的滞后性与法律条文追求的权威严谨的程序共同造成了智能算法技术发展中法治层面规制的难题。我国法律发展也对于算法权力提出了有效的规制路径,例如算法解释权的提出,对于算法自动化决策和深度学习的达致框架进行了整体意义上的改良,但是具体的法律制度与法治理念的落实之上,滞后性产生的后果的现实表现就是面对算法权力异化的危机,法律给予的回应不能够细化到算法权力运行的全阶段和全过程,也无法预测和控制使用算法技术造成的触发性后果。

3.5. 损害权力优先的正义观

公平正义不仅是法治理念的崇高目标,更是社会运行的奉为圭臬的准则。社会秩序的维护和调整建立在争议所蕴含的平等、自由和诚信等价值基础上。这种传统的正义观从以人为本的道德视角出发,将权力优先作为调整社会矛盾的首要出发点。这样的秩序建构将人的主体性地位进行肯定。而人工智能算法所推崇的争议,是效率为核心的复合正义观,智能算法对于大数据和虚拟空间的整合具有即时处理的特性,将工具主义带来的信息处理的高效性作为算法整体运行的标准,并不考虑个人的差异性,而仅仅是将作为主体的人依据不同的操作命令进行群组分类和进行同质化处理。算法权力的运行中将计算结果作为本质,主张人对于技术失去价值观的理解,将人特有的社会关系离散为片面的数据化进行分析,这样就大大削弱了人的主体性和特性。在算法决策是可以节省数据分析的时间成本,却在社会秩序上造成了对传统正义观的冲击。技术理性与道德价值在算法权力运行中存在对立同样映射在算法与法律关系的调整之中,如何平衡二者的适配性发展,也是科技时代面对权力优先与效率为主的价值冲击的必要课题。

4. 算法权力的规制

算法技术的应用的初衷和原始力,来自于帮助人类将浩如烟海的信息整理归纳、分析过滤后获得精准查找目标和个性化信息的美好愿景,但算法的应用的无边界和网络数字空间中监管的不到位等问题使得算法其实、算法黑箱、算法崩溃等问题频发,同时也加剧了大数据时代以来的信息不对称、知识不对称以及信息茧房的问题。由算法技术的自主决策和学习能力导致了技术对信息的劫持和算法权力对信息主体的控制,智能算法的权力属性,将大数据世道下人对于信息决策的权力进行剥夺,其后果带来了人类边缘化的风险 [10] 。应对智能算法中“技术主体性”的日益凸显和算法导致的一系列信息劫持暴力和数据信任危机,抵制算法时代人的主体性渐趋式微,需要对人与技术之间的关系进行自我审视、从算法性质出发升级规制思路,从技术规则到权力制约方面进行探索,最后,将算法权力的运行纳入法律调整的轨道,要从法律自身出发,在应对技术挑战时,如何从法律追求与算法内涵之间理解算法所引发的价值问题,以及构建出这两种“规范”之间的互动空间。

4.1. 自我审视:主体认知和技术工具的辩证思考

自人类可以自主制造工具以来,人与人所创造的技术物之间,都是人类作为主体对客体物的使用与控制的彰显,人作为主体,有自主权决定对物的制造和使用,这也是人的主体性地位的彰显。但是人对于算法权力的关系而言,显然异化了这一主客体之间控制与被控制之间的联系。“马克思异化理论中,异化指的是人与其生产活动的产物的关系 [11] 。自我异化指的是人对他人、社会及他自身的态度”马克思对于异化的经典阐释,为作为社会主体的人与客体的算法技术之间的正确看待,算法社会中人的自我审视,是人的主体价值与算法权力制约之间认识维度的关键所在。

西方马克思主义学者马尔库塞的阐述中,技术始终是一种工具性事务,它在运转的过程当中,蕴含着复杂的社会关系和意识形态。社会建构中客观存在的算法本质上是对人类历史、社会、政治和文化的反映。大数据、云计算、智能化的算法是人类需求在当代社会发展阶段的产物。算法作为技术是中性的,我们需要用谨慎的态度来确认,包括算法在内的技术的使用应该针对人类社会的善良和福祉。

技术的发展是开放和无限的,但是对技术的利用和审视确是封闭和有目的性的,这与特定的人和空间有莫大关系。社会历史发展的前进行和曲折性,让我们在享受算法带来的便利的同时,要看到智能技术背后的政治倾向、经济发展差距和文化霸权等不平等现象带来的对算法技术的影响。以及算法权力本身的歧视、黑箱、不透明等带来的被隐匿、漠视与遗忘的人性。进而在明确算法权力发展中,保持清醒的认知与理性的思辨态度,人作为社会主体要有对算法权力的制约与自决权力。

对人类主体进行自我审视也是对于正确看待算法技术不可或缺的过程,技术对生活的强大赋能和加持下的世界,存在着我们不能完全控制的因果力和计算性意义。算法权力发展的失控正是人的能力的有限性和客观技术发展的无限性之间的矛盾。但同时需要认识到在人与物的关系中,人应当是主体,是中心,而物则是客体,是为主体人服务的,人是目的,而物是手段。人类进入智能社会,都算法权力的规制也是新数字空间中人的主体价值不断强调的努力。在历史发展阶段,既要最大限度地发挥算法技术对海量数据处理的积极价值,又从新定位算法权力中人的价值和尊严的坐标,将其作为基础规范 [12] 。这就需要对人的主体性有清醒的认知,作为技术物存在的算法要受到主体的制约,作为主体人的“主体性”和“自治性”使得人对算法权力可以有效规制或者自主决定算法是否继续执行。算法权力要防止对社会的道德、伦理及价值基础的背离,要看清技术理性的局限,让技术真正地服务于人,确保人的价值与意义。

4.2. 道德归位:以算法伦理保障人的主体价值

人的价值和尊严是算法伦理设计的基础和核心,智能算法的发展和对大数据的掌握导致人类对信息处理的主体地位的让渡,数字空间中人对于信息的零散、孤立地搜索,经过算法的处理将“数据零件”大规模地聚集统计后却成了分析把握人类主体特征的宝库,成为可预测和计算的数据客体,这种主体认知性的转移使得人对于社会资源和发展的决策力量的削弱,使的人的自主决定和批判自由成为形式上的概念,沦为技术的奴隶数据代码本身的不固定性使得很容易受到政治、商业的操纵,使得算法运行的方向和作用都具有不确定性,取法伦理知道。脱离了人类共同崇尚的道德和法律价值的算法,会导致对算法权利把握的失控,算法的合理性和价值性要在算法研发和运行中赋予道德和法律的审视,将算法的架构和程序的编写中承载的价值体现理性和公平正义,这是算法权利中不可忽视的伦理的良性建设,但数字空间中对算法权力监管的缺失,算法技术在生成阶段缺乏对以人类的福祉为目的的普世价值的融入,使得算法拥有了无限制的自主性权力,与人的主体性地位发生冲突,人成为算法权力之下可被预测和操纵的客体。要重新突出人的主体性地位,对算法设立标准,加以限制。如欧盟《可信赖的人工智能准则》中将人的价值作为人工智能的首要考量因素和欧盟GDPR的默认隐私原则。对算法伦理的设计中,主张对人工智能机器的可信赖性能的提升,对人的主体性决策能力的体现具有不可或缺性。

算法的伦理设计是以立法的形式明确算法设计者的伦理设计义务。生命伦理学家恩格尔哈特提出“道德异乡人”概念,具有不同道德前提的人,在合作时存在基础的价值取向冲突,这是因为他们生活在不同的道德体之中,对于程序的适用、善的理解、正义的分配和责任的承担都存在着不同的偏差,由此导致了社会发展的冲突。因此需要建立蕴含一个被大多数人认可的核心价值和公共理性原则的集合体,即法律,来划定算法的伦理边界。在追求算法技术效率化的同时,对公平正义、以人为本、自由诚信等法律价值的追求也不能松懈。技术没有偏见,但是技术背后的设计者却能够将自身价值偏好融入技术设计的全过程。在价值上,算法既冲击了传统价值实践方式,也重塑了价值的呈现形态。算法技术的构建,在数据获取和收集层面,受到需求目标的指向,对信息的收集具有偏向性,难以做到准确和客观,数据样本的搜集、归类、处理等不规范数等一系列情况都会导致数据失实,从算法设计之初加强算法偏见,侵害政治正义,伤害人的基本权利 [13] 。实现算法权力伦理,就要将人视为有权利、有价值的个体,在算法技术中体现出以人为本的理念,尊重人的自由和人格,保障信息的完整性和保密性。算法应注重人的主体性,不能将人简单地“物化”或“数据化”。在实践中,一方面要对算法技术相关从业人员进行技能培训和伦理培训,在道德层面上进行自律;另一方面,要加强人工智能行业的伦理建设,加强行业标准的设立。

4.3. 法律规制:算法可解释权限制算法偏好

从目前主流的算法来看,对算法的深度学习无法实现算法的清晰透明。即使所有用于深度学习的代码和程序都已发布,也不可能知道算法如何以及为什么会得到相应的结果。这使得算法在运行中失真。算法的权力操作偏好意味着算法的黑箱、数据歧视和技术壁垒等问题将打破社会公平和正义,进一步演变为真正的空间歧视。算法的操作遵循一组手动编译的算法,但是它以结果表达的形式呈现了自动化的目标决策,从而突出了编译器的意识形态和价值 [14] 。这种自动化决策算法不公开,不接受询问,不提供解释,不提供救济。相对人没有办法知道决定的原因。因此,应加强法律规制,将算法程序的操作逻辑整合到法律的价值中,并对算法权力的运行边界进行设定。新技术必须从陌生的、不确定的因素转化为能够融入日常生活和社会文化的驯化的东西。同时,算法解决权的建立可以为人工智能技术的未来发展储备了一定的空间。

“算法解释权”的建立,使公众在质疑智能决策时,拥有请求算法开发者和数据使用者进行分析的权力,从而避免价值误导和算法偏差,甚至要求系统在重大决策中进行重新计算和重新决策。算法的可解释力的目标是让算法决策的利益相关者知道偏离其期望的决策是如何做出的,从而进行后续的修正或补救,并从救济途径修改算法偏好。它具有传统权力的逻辑基础,是技术正义对法律制度和新权力之间的权力偏见摩擦的调整。算法偏好使推荐内容过度强化用户偏好,影响用户对信息内容的自主选择,加剧“信息茧房”效应,容易造成个人和社会隔离对当前国情世情缺乏深刻的认识和判断。算法解释权可以有效促进算法开发者与用户之间的权利义务关系,基于自动化决策的风险负担趋于对等。一方面,可以要求算法设计者和控制器解释算法决策的事实。算法用户提供影响最终决策结果的重要因素或事实,了解算法自动决策的基础知识,以便用户能够获得数据被利用的来源和依据,以及行使拒绝权力的机会,避免算法重复对数据的错误使用。

4.4. 法律救济:引入算法人身权侵权纠纷

算法权力对人的主体性侵犯是循序渐进的,在采集个人信息、提供个性推荐等行为初期,用户享受到了智能算法带来的高质量服务,当算法对个人信息进一步收集、更深入主动地进行收集整理,用户的处境犹如温水煮青蛙,即使感觉到权力受到侵犯,也不知如何维权 [15] 。更有甚者甚至是危机人的生命。魏则西事件中,百度的竞价排名算法使得不正规医疗机构的推荐排在搜索结果前列,进而导致已经早被淘汰的生物免疫疗法被奉为治病良方,最终使得魏则西医治无效去世。搜索引擎推荐信息的精准度是依赖于算法的,本质上是定量和普适的,并不具备个性化特点。但是百度的竞价排名机制使得算法权力的应用收到了利益的驱使而忽视安全性和专业性,对癌症治疗搜索结果的个性化推荐,以及百度平台对医疗机构连接的资质审查的不严谨性,导致魏则西错过了最佳治疗时期,因病身亡 [16] 。在这起严重侵犯他人生命健康权的医疗事故中,百度算法系统对医疗机构直接侵权行为起到了关键辅助作用,却逃脱了作为帮凶应负的法律责任。

对于算法正义和法律制度之间的利益平衡需要在法律援助制度框架之内,适当补充算法人身权纠纷的内容,2021年8月通过的《法律援助法》第31条对民事法律援助事项的规定新增了人身损害赔偿情形,结合第22条对法律援助形式的规定,为应对算法直接或间接侵犯公民人身权并造成损害结果的情况,应畅通法律咨询、代理等法律援助服务渠道,提高法律援助信息曝光,如要求平台以显著形式标注法律援助联系方式等。算法应用应该在提高效率和合乎伦理这两个目标之间取得平衡已经成为普遍共识,对算法权力的规制更应当注重对于人身权损害的保护。在“符合法定条件的其他当事人”的认定上,应以算法对受害人造成的后果是否严重及受害人经济状况为主要考量因素,不宜强求算法和后果之间存在直接因果关系,因为算法对人认知与行为的限制往往是通过间接却有力的方式实现,稍微延长因果链符合算法规制正义 [17] 。

4.5. 秩序重构:算法与法律关系的新思考

社会实践中的价值冲突和利益分歧,算法应用在诸多方面加剧了这种复杂性,算法权力多人主体性地位的侵犯引发的法律挑战和价值担忧,使得对算法权力的规制不得不考虑法律于算法二者的利益平衡 [18] 。在算法权力异化和扩张中呈现出的问题,很多建议往往采取传统的回应型规制视角,主张将算法纳入法律监管,通过法律对算法进行规范。这种方式可以使算法权力的运行走向正当化、合法化的渠道,然而,必须面对智能算法所蕴含的新兴科技潜力使无穷的,规制所承载的回应型法律姿态不足以应对新兴科技的发展步伐,因为从实践来看,科技对法律的影响意义反而比法律对科技的回应和规制更为突出。“科学应该完全像任何其它知识或文化形式那样,受到社会学的考察。” [19] 理解算法与法律之关系的一种理想模式是重构模式,该模式强调的是法律在应对技术挑战时,应当对自身追求共同善的方式进行重新梳理。这种模式并不是要改变法律的属性,而是分析算法和法律的价值分别如何实现,二者之间如何契合,以及出现冲突时应该如何解决。例如,面对算法歧视时,正确的思路不是通过法律消除算法的歧视,而是分析算法歧视与传统歧视有何不同,根源上是否存在差异,以及法律是否能够展现出不同于传统歧视防范方式的新方案。在算法的法律应对上,重构模式可以发挥更为实质的作用和理论指导意义。

所以,实现计算正义,首先不在于解决算法运行中的问题,而是展示如何从法律角度理解算法所引发的价值问题,以及构建出这两种“规范”之间的互动空间。算法与法律的重构不是简单的功能融合,因为算法发挥技术功能,而法律发挥规范功能。两者的重构体现在算法对人的行为指引可视为法律指引功能的延伸,但算法的技术价值需要由法律价值加以约束并进行价值整合。这是一项复杂的技术和社会工程,同时展现了算法融入法律并拓展计算正义之内涵的开放空间。

5. 结语

现代智能算法以其强大的社会嵌入性成为这个时代不可或缺的名片,在标记人们的生活的同时,也使得人的主体性权利受到限制。算法影响下的世界,其带来的理论与实践的双重挑战,仍然要坚持重申人的主体性价值,并以此作为考察技术与文化、权力与权利、法律与道德机器与人性的基本立场。人类对智能算法的未来发展处于既心向往之又恐惧的矛盾态度。欢喜于智能算法所蕴含的巨大潜力,其所创造的空前社会价值可以让人类迈向更好的未来。又忌惮于有朝一日会取代人类在自然界中至高的地位。人类才更应该为算法权力的发展建立正确的规范,将人工智能的“命脉”牢牢握在自己的手中。互联网让世界变成了“鸡犬之声相闻”的地球村,我们就更没有理由让“各说各话”的算法权力和人的主体价值成为通向共同善良追求的绊脚石。毕竟,我们所期待抵达的未来数字空间,不仅有丰沛的信息,更有理性、秩序以及文明。

参考文献

[1] 马长山. 智能互联网时代的法律变革[J]. 法学研究, 2018(4): 20-38.
[2] 付东来. Labuladong的算法小抄[M]. 北京: 电子工业出版社, 2020.
[3] 顾伟, 郭弘, 陈朝铭. 人工智能算法的法律审视及规制[C]//2021年世界人工智能大会组委会. 《上海法学研究》集刊(2021年第5卷)——2021世界人工智能大会法治论坛文集: 2021年卷. 2021: 231-239.
[4] 张凌寒. 算法权力的兴起、异化及法律规制[J]. 法商研究, 2019(4): 55-60.
[5] 赵一丁, 陈亮. 算法权力异化及法律规制[J]. 云南社会科学, 2021(5): 123-132.
[6] 阿里尔∙扎拉奇, 莫里斯∙E.斯图克. 算法的陷阱[M]. 余潇, 译. 北京: 中信出版集团, 2019.
[7] 布莱恩∙阿瑟. 技术的本质[M]. 曹东溟, 王健, 译. 杭州: 浙江人民出版社, 2014.
[8] [德]尤尔根·哈贝马斯. 作为“意识形态”的技术和科学[M]. 李黎, 郭官, 译. 上海: 学林出版社, 1999: 76-77.
[9] 刘永谋. 机器与统治——马克思科学技术论的权力之维[J]. 科学技术哲学研究, 2012, 29(1): 52-56.
[10] 郑戈. 算法的法律与法律的算法[J]. 中国法律评论, 2018(2): 66-85.
[11] 张林. 智能算法推荐的意识形态风险及其治理[J]. 探索, 2021(1): 176-188.
[12] 郑玉双. 计算正义: 算法与法律之关系的法理建构[J]. 政治与法律, 2021(11): 91-104.
[13] 王敏芝. 算法时代传播主体性的虚置与复归[J]. 苏州大学学报(哲学社会科学版), 2021, 42(2): 166-175.
[14] 亚当·沙夫. 作为社会现象的异化[M]. 衣俊卿, 等, 译. 哈尔滨: 黑龙江大学出版社, 2015: 227-228.
[15] 安德鲁·芬伯格. 技术体系: 理性的社会生活[M]. 上海社会科学院科学技术哲学创新团队, 译. 上海: 上海社会科学院出版社, 2018.
[16] 袁康. 可信算法的法律规制[J]. 东方法学, 2021(3): 5-21.
[17] 汪庆华. 人工智能的法律规制路径: 一个框架性讨论[J]. 现代法学, 2019, 41(2): 54-63.
[18] 张爱军, 李圆. 人工智能时代的算法权力: 逻辑、风险及规制[J]. 河海大学学报(哲学社会科学版), 2019, 21(6): 18-24.
[19] Barnes, B. (1982) T. S. Kuhn and Social Science. Macmillan, London.