我国算法影响评估制度的内涵与完善
The Connotation and Improvement of China’s Algorithm Impact Assessment System
摘要: 算法影响评估制度的建立为算法治理提供了新思路,但是实践中仍存在算法黑箱、算法偏见以及算法决策权两级分化的问题,这些问题散布于算法运行的三个阶段,严重影响算法影响评估制度的实施,产生这些问题的原因在于当前算法影响评估制度运行各阶段制度尚不完善,如算法模型建立阶段缺乏强制披露制度、算法数据输入阶段评估启动过于静态、算法结果数据阶段评估结果过于局限以及部分法条内涵规定模糊等。通过对上述各阶段的问题针对性地提出合理化建议,以期实现保障算法影响评估制度有效运行的目的。
Abstract: The establishment of an algorithm impact assessment system provides new ideas for algorithm governance, but in practice, there are still problems such as algorithm black box, algorithm bias, and two-level differentiation of algorithm decision-making power. These problems are scattered throughout the three stages of algorithm operation, seriously affecting the implementation of the algorithm impact assessment system. The reason for these problems is that the current system for each stage of algorithm impact assessment is not yet perfect, such as the lack of mandatory disclosure system in the algorithm model establishment stage, the static start of evaluation in the algorithm data input stage, the limited evaluation results in the algorithm result data stage, and the vague provisions of some laws. By providing targeted rationalization suggestions for the issues at each stage mentioned above, we aim to ensure the effective operation of the algorithm impact assessment system.
文章引用:王钰坤, 孙玮. 我国算法影响评估制度的内涵与完善[J]. 法学, 2024, 12(7): 4259-4266. https://doi.org/10.12677/ojls.2024.127604

1. 引言

大数据时代的到来,数以万计的电子数据涌入公共和私人领域,仅仅依靠人工处理恐难胜任,如何利用机器使用、处理数据成为学界各领域攻坚的重中之重。随着人工智能的迅速发展,算法自动化决策技术逐渐进入大众视野。所谓算法自动化决策是指信息处理者能够通过计算机程序自动分析、评估个人的行为习惯、兴趣爱好或者经济、健康、信用状况等进行决策的活动。其包括以下三个运行流程,分别为算法模型建立阶段即算法技术逻辑转化为代码的阶段,算法数据输入阶段即算法通过预先学习规则后完成自主学习的阶段,以及算法结果输出阶段即算法辅助决策到智能决策转变的阶段[1]。无论是商事交易等民事领域,亦或是天眼追查等刑事领域、行政领域中均能看到算法自动化决策的身影,可以说,人类社会正在由人工时代向算法时代快速转变。

然而自动化决策的发展忽视了对个人合法权益的保护,如个人知情权、隐私权等私人权利受到严重侵犯。《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)第55、56条中的算法影响评估制度为算法治理提供了新思路,即个人信息处理者对个人权益有重大影响的个人信息进行事前评估,并采取与其风险程度相适应的保护措施,以达到消除或减轻预期所产生的有害影响。这一制度贯穿于算法自动化决策的三个阶段,在实践中也取得了一定的成效,但随着算法技术的进一步发展,算法造成的侵害开始逐渐向社会公共领域蔓延和扩展,由此从算法黑箱问题进一步发展为算法偏见以及算法两级分化等新的问题。对于这些新出现的问题,当前《个人信息保护法》中的算法影响评估制度产生的规制效果则不尽如人意。基于此,本文首先对算法影响评估制度的内涵进行分析,同时针对算法影响评估制度中产生的新的算法风险,分析制度漏洞,提出合理的解决方案。

2. 算法影响评估制度的内涵

算法影响评估制度随着时代的发展而产生并不断完善。2017年,在《信息安全技术——个人信息安全规范》中最早提出“个人信息安全影响评估制度”的概念,之后在2020年发布的《信息安全技术——个人信息安全影响评估指南》中对评估的原理和实施流程进行较为全面的规定,最终于2021年颁布的《个人信息保护法》第55条、第56条中正式确立“算法影响评估制度”[2]。该条款明确提出,个人信息处理者应当在事前对个人权益有重大影响的个人信息处理活动进行影响评估,以减少发生严重损害的可能性。此条款一举推翻传统立法中事后处理个人信息的解决方式,改用事前预防的手段,具有跨时代的意义。

虽然当前《个人信息保护法》第55、56条并未对算法影响评估制度进行确切定义,但根据条文推知算法影响评估制度是指个人信息处理者首先事前确定个人信息的处理活动是否具有合法性、正当性和必要性,其次对个人权益有重大影响及安全风险的个人信息进行早期干预,最后及时采取合法、有效且与风险程度相适应的保护措施以降低对个人权益的损害风险1。其中,第55条列举了个人信息处理者应当进行算法影响评估制度的法定情形,并以“对个人有重大影响的个人信息处理活动”作为兜底条款,以期确保对个人信息的完整保护;第56条就影响评估的内容和保存记录的要求进行了界定。总体来说,算法影响评估制度具体包括以下内容。

2.1. 评估主体为个人信息处理者

根据《个人信息保护法》第55条规定,算法影响评估制度的评估主体仅包括个人信息处理者,是自我规制的体现。在传统风险评估过程中,评估主体更多为政府部门,很少将私权利主体作为评估主体。例如我国食品安全风险评估的评估主体为国务院卫生行政部门,卫生行政部门负责对食品安全进行评估并负责公布评估结果[3]。然而由于数据时代的迅速发展,个人信息的处理难度大增,具有个人信息保护职责的政府因算法能力不足、公共资源有限等原因已难以有效实现对个人信息的风险评估,将影响评估权逐渐让位于更具有技术优势的个人信息处理者也是顺应时代发展的应有之意。概言之,当前个人信息影响评估制度的运行已不再局限于公权力主体,而将私权利主体也纳入其中。

2.2. 评估目的为合规评估与风险评估

算法影响评估制度的设计功能为合规评估,即个人信息处理者首先对开展个人信息的处理活动进行合规性审查,及时发现违规之处,并提出合规方案,以达到未雨绸缪的效果。具体体现在《个人信息保护法》第56条规定信息处理者应对个人信息处理的理目的及处方式进行合法性、必要性、与正当性评估。同时在合规评估基础上,算法影响评估制度创新性地加入风险评估这一评估目的,通过识别风险类型,确定风险大小,并采取相应的保护措施[4]。加入风险评估的原因在于,合规评估与风险评估的侧重点不同,合规处理后的个人信息仍有给个人带来高风险的可能,所以在合规评估的基础上确立风险评估制度,能够很好地提升算法影响评估制度的严谨性。

2.3. 评估启动时间具有事前性

算法影响评估制度并非事后监督制度,事后监督制度通常是指个人信息经过处理后,监督机构对已经造成的危害及后果进行处理,主要包括确定责任主体、赔偿金额等行为。而算法影响评估制度是指在该行为还未产生一定影响时对其进行风险性和影响性评估,并制定风险处置报告和改进策略,以降低该行为未来可能造成的损害结果。算法影响评估制度本身的启动时间是在危害行为尚未实施这一时间点,具有事前性特点。相较于事后监督制度,算法影响评估制度的优势在于更能对风险起到预防的作用,以防止事后造成难以弥补的危害,将风险降至最低。

2.4. 保护对象为私人权益

我国个人信息保护是对个人隐私与数据时代结合而创造的新的维度即数据信息维度的保护。由于早期立法的不健全,个人信息在相当长的一段时间里被列入隐私保护的民事私法范畴,受民法规制。并且随着信息技术的不断发展,电子信息的处理人员由公权力机关向私权利主体如电商平台转移,使得学者更加坚定认为对于个人信息的规范仍属于私法的调整范畴。在2020年出台的《民法典》中也将个人信息保护置于第四编第六章“隐私权和个人信息保护”部分进行规定。因此算法影响评估制度作为规范个人信息的一种评估制度,其立法目的本身便是以保护个人信息权益为主,所以主要以私人权益为保护对象[5]。或者说算法影响评估制度通过直接的保护私人权利辐射至维护社会安全。

由此可见,现行的算法影响评估制度是采用自我规制的手段,对事前风险进行合规评估和风险评估,更加侧重对私人利益的保护。然而人工智能技术的迅速发展,决策权力的移转趋势变化,数据控制者或处理者不仅拥有了获取用户隐私、电子数据等私人权益的权利,而且通过对算法技术的滥用正悄无声息的拥有着“数据霸权”,企图以无形诱导或精准投送等方式达到其自身的不法目的,但现行算法影响评估制度在应对上述新问题时却表现得无能为力。下文通过分析当前算法影响评估制度下算法存在的现实困境及成因,反思算法影响评估制度的立法问题,以提出最优的解决路径。

3. 算法影响评估制度的现实困境

当前算法影响评估制度对于维护用户隐私权、知情权起到了十分良好的成效,但是随着算法技术的深入发展,算法风险也在进一步扩大,主要表现为算法模型建立阶段的算法黑箱风险,算法数据输入阶段的算法偏见风险,以及算法结果输出阶段的算法权力两级分化风险。同时这三类算法风险之间并不是割裂的,而是相互影响,彼此促进的关系。例如:算法黑箱会加剧算法偏见的风险,同时放大算法权力的两极分化现象。如上所述,因自身制度设定缺陷,当前算法影响评估制度在应对上述风险时存在较大问题。

3.1. 算法黑箱

算法黑箱是指算法具有不公开性、不透明性,用户难以得知自己的个人信息会被数据处理者如何筛选和使用的情况。算法黑箱所产生的风险主要包括以下两个方面:第一,算法黑箱能够侵犯用户的隐私权。算法能够在用户使用数字产品的过程中通过用户下载的应用软件、浏览界面以及搜索结果等确定用户的政治倾向、家庭住址、消费习惯等对于用户具有重要影响的信息,一些不良算法控制者还会将用户的个人信息进行售卖从而赚取利润,这侵犯了用户的隐私权。第二,算法黑箱导致出现歧视或不公平的情形。例如在近年来较为普遍的“大数据杀熟”行为中,电商经营者正是在充分了解用户消费水平等信息后对用户区别定价,最终导致部分用户受到不公正待遇。产生算法黑箱的原因主要包括两个方面:一是算法技术本身具有复杂性,即算法基于神经网络的深度学习而导致其难以解释背后的运行逻辑,所以用户因算法专业性较强而对算法的内容很难理解。二是算法控制者将算法作为“商业秘密”进行排他性保护,商业秘密一旦泄露,可能会导致企业利益受损。所以算法无论是从技术角度抑或是利益角度均难以做到公开,从而产生算法黑箱,而部分无良数据控制者或处理者正是以上述原因为借口规避公权力机关对算法技术的合法规制从而实现自身非法目的[6]

3.2. 算法偏见

随着数据信息的快速膨胀,人类能够将个人数据交由大数据处理和收集,一方面迫于信息爆炸而难以处理的无奈境况,另一方面也来源于人类相信算法具有中立性。然而正如美国研究机构“Data & Society”在《算法问责:入门》中提到,使用算法系统的目的在于避免人类在决策中存在的偏见,但是算法系统也存在将已有偏见进行编码或者产生的偏见的可能性。当前造成算法偏见的原因有二:一是数据输入时造成的偏见;二是算法运算过程中自发形成的偏见。前者主要指算法在设计过程中被注入大量存在偏见的数据导致算法在投入使用之前就已经具有偏见,而后者则是算法在运行过程中模型选择或模型解释过程中存在偏见2。由于更多的行业开始使用算法进行决策,但却未发现算法看似中立实则暗藏偏见的漏洞,导致行业对某一部分人群产生偏见而不自知[7]。除此以外,算法偏见也加大了对个人的人身安全或个人尊严造成威胁的概率。综上,如果不及时对算法偏见进行管制,运算的结果将不可避免地产生个体歧视从而对整个社会造成不良影响。

3.3. 算法决策权力两级分化严重

进入大数据时代,个人信息的决策权正在从公共领域逐渐向私人领域转移,算法的开发者和控制者拥有大量个人信息,而个人信息在当今社会是极其重要的财富。在海量数据和隐秘算法技术构建的算法社会中,掌握算法技术的商业平台逐渐成为“数据富人”,而难以窥探算法技术的用户则属于“数据穷人”处于被支配的地位,“数据财富”两级分化严重,导致“数据富人”不仅能够在数据上掌握主动权,甚至能够渗透至社会力量,重新塑造社会结构。例如在2015年Facebook通过算法推算出民主党的支持者通常喜欢泰勒·斯威夫特以及爱喝星巴克咖啡等特征而对其进行总统候选人的推送以潜在干预美国大选。如果不对算法进行一定约束和监管,处于被支配地位的用户终将沦为商业平台及公共机构统治下的工具,不仅行为、意识被操控,甚至认知与情感都在无形中被控制。因此,为了减少权力的不平等,需要通过立法对算法进行规制,降低其决策风险,充分发挥算法所带来的优势作用。

4. 我国算法影响评估制度的立法问题反思

如上,由于当前算法在算法自动化决策的每一阶段均存在现实问题,因此通过对算法不同阶段的立法规制现状进行分析,发掘不同阶段的立法漏洞,并尝试提出完善建议。

4.1. 算法模型建立阶段:缺乏强制披露制度

当前算法控制者敢于铤而走险扩大自己的算法权力满足个人私欲的原因除用户难以理解算法内部的运行逻辑等现实原因,还在于《个人信息保护法》中并未强制要求算法控制者对于个人信息进行披露。算法影响评估制度采用的披露方式为自愿披露,所谓自愿披露制度是指个人信息处理者在进行影响评估后,会产生影响评估报告,此时信息处理者可以自行决定是否向社会公众披露这一报告,这是由算法影响评估制度自我规制的本质决定的。信息处理者所做的评估报告既没有公权力机关通过制定法律形成披露的监管反馈机制进行有效监管,也无需选择以市场反馈方式进行自主监管,导致个人信息处理者既作“裁判员”,又作“运动员”。这不仅剥夺了公众对于个人信息处理情况的知情权,同时对于个人信息处理者的错误行为公众难以进行制止,只能事后进行损害赔偿。如果个人信息影响评估制度缺乏接受公众监督以及提供公众纠正错误的机会,那么该制度将最终因缺乏监管而走向形式主义。所以仅依靠自我评估难以发挥制度优势,应当使影响评估制度接受更多主体的监督和审查。

4.2. 算法数据输入阶段:评估启动过于静态

我国算法影响评估制度主要是一种事前静态评估制度,即评估活动的启动时间主要在算法投入运行之前,并不要求对事中及事后的算法进行评估,同时也不要求评估贯穿于算法运行的全周期。这样的静态评估制度存在极大的问题,根据上文关于算法偏见的分析可知,当今算法偏见主要来源于算法运行前设计阶段的算法偏见和运行过程中的数据偏见。而当前的算法影响评估制度可以算法运行前的算法偏见通过对其合规性和风险性的审查进行立法规制,减少算法偏见的产生。但是在运行过程中由于所测数据具有偏见性,使算法在运行过程中自主学习产生偏差,从而影响用户权益甚至对公共利益产生危害,个人保护影响评估制度并未考虑该问题。因此,当个人信息在运作过程中产生偏见等算法问题时只能通过事后补偿解决问题,这显然并非评估制度希望产生的结果。因此事前静态的评估制度难以有效的解决算法偏见等问题,需加强对算法全周期的有效评估。

4.3. 算法结果输出阶段:评估主体过于局限

《个人信息保护法》第55条只规定了个人信息处理者对个人信息进行影响评估,但并未规定其他主体能够成为算法影响评估制度的评估主体,这导致个人信息处理者对个人信息拥有过度的自主处理权。由于个人信息处理者与信息主体存在明显利益冲突,只规定个人信息处理者对个人信息进行评估,其强制力明显不足,难免为个人信息处理者留下作弊空间。即使个人信息处理者能够按照法律制度认真履行对个人信息的合规性和风险性审查,由于个人信息在法律层面规定存在模糊性,所以只靠个人信息处理者发现潜在问题并不合理。因为对于经常评估个人信息的处理者而言,其自身对于事物的公正和客观的判定标准不同,所以对于部分风险认知存在偏差,不易维护算法公平正义。因此,如果并未规定其他主体拥有评估权利,该评估制度一方面极易因信息处理者的利益而走向形式主义,另一方面也因为对风险认知的偏差而难以维护算法公正。

此外,对于《个人信息保护法》第55条第2项“自动化决策”条款,被学者们广为诟病。主要原因在于这项规定所含范围太广,对于所有的算法自动化决策进行评估既不现实也无必要,因为算法系统所涉及个人权利和公共利益造成的结果并不相同。例如,用户手机中人脸识别只是用于人像解锁,但是公共部门的人脸识别可能是为了抓捕逃犯,由此可见,相同技术在不同应用领域并不意味着相同风险等级。算法影响评估制度作为一种风险评估制度,其功能主要是评估该个人信息是否会造成个人风险或社会风险。所以设定个人信息保护影响评估的适用范围,既应当注重安全同时注重效率,如果适用范围过于宽泛,个人信息处理者的运营压力将会过大,不利于法律的实际执行。如果评估范围过窄,则容易使高风险的个人信息成为漏网之鱼,从而难以保证个人合法权益。因此如何界定算法影响评估制度的内容,也是开展更准确的算法影响评估制度的关键一步。

5. 算法影响评估制度的完善方案

对于算法影响评估制度虽然已经初步建立,但是实践中仍存在着法律规定过于原则化,难以与现实相匹配的情况。因此应加快算法影响评估制度完善,充分发挥算法影响评估制度功能,增强其刚性与时效性。

5.1. 算法模型建立阶段:加强个人信息强制性披露

我国算法影响评估制度立法设计中最大的不足是并未要求强制披露制度,而是奉行自愿披露的原则。为提高监管效率、使监管落入实处,对于个人信息影响评估的监管不能只采用单一的监督模式,而是应该整合政府机构、社会公众等多元力量进行联动,并对不同风险进行不同等级的信息披露。目前应当对不同群体采用不同程度的披露策略,并及时更新算法影响评估制度报告的内容。首先,面对广大用户时,控制者应按照不同风险等级披露不同的内容,风险越大所披露的内容则越多,其目的是为了让公众能够充分知晓算法影响评估制度的结果。同时,在语言表达上应进一步考虑公众的理解能力,采用公众更宜理解的方式进行表述。部分企业或许以保护商业秘密作为反对公布的条件,然而对于个人信息保护影响评估的信息公布并不强求数据控制者对评估的文件和流程均进行公布,只需公布评估结果即可,同时对于无法公布的内容,企业可以提出难以公布的理由。而政府等监管部门可以对较大型企业进行倡议和倡导,或者进行一定的财政补贴和奖励,以促进较大企业的带头作用,较大企业也应该承担更多的社会责任从而自主进行信息公开。

5.2. 算法数据输入阶段:建立动态全周期的评估启动程序

由于风险环境的快速变化,对于风险的预防并非仅在数据处理活动之前,因为个人信息在运算过程中风险环境的变化仍然会对用户的权利和公共秩序造成潜在的风险[8]。而现有的个人信息影响评估仅进行事前的评估,对事中的风险难以做到评估,这仍存在算法偏见的风险。因此对于算法影响评估制度的启动应当既包括事前评估,也包括事中评估,并且评估的启动并非静止的,而是具有动态性。2019年加拿大政府出台的《自动化决策指令》中规定,算法影响评估的启动时间不仅在生产任何自动化决策系统之前,同时也应在系统功能发生变化是进行更新,由此可见个人信息影响评估制度具有一定的可行性[9]。建立覆盖算法开发、运行全过程的动态性的个人信息保护影响评估启动制度,一方面继续保持在算法使用前对个人信息进行风险评估并分类,另一方面,在算法投入使用过程中,个人信息处理者和专业评估人员仍应对不同类别的个人信息进行不同范围和不同时间的定期评估。

5.3. 算法结果输出阶段:建立第三方评估主体

算法影响评估制度其本质为合规和风险治理工具,其具有客观实在性和主观建构性双重属性,这将意味着对于算法客观实在性方面离不开技术专家的技术支持,而在主观建构性方面也需要社会公众或者相关利益人提出其对于信息风险决策的利益表达。在欧盟,数据处理者在进行信息影响评估时设有咨询环节,这一环节的目的是个人信息处理者向不同主体咨询以判断所处理的信息是否具有高风险。信息处理者需根据利益相关者的基本情况分析制定咨询策略,同时如果信息处理者已经设立数据保护官,则应当寻求数据保护官建议[10]。此外,我国环境影响评估制度也给予算法影响评估制度完善思路。在环境影响评估制度中,为提高公众对环境风险决策的可接受性,允许公众或利益相关者对风险决策进行一定利益表达,吸纳外行公众与利益相关人员参与到环境风险评估过程中。因此,算法影响评估制度不仅应当建立专业的第三方评估主体,鼓励他们参与到计划前和执行中的个人信息影响评估中来,同时也应逐渐将评估主体的范围扩大到普通公众。

随着数字经济的迅猛发展,算法技术已成为社会发展不可或缺的变革技术。然而随着算法自动化进一步发展,算法对个人信息的侵犯引发了很多社会问题,对当前立法模式和治理模式造成极大的冲击。尽管当前算法影响评估制度通过对个人信息事前评估的方式加强对个人信息权的保护,但算法自动化造成的风险远不仅限于私人领域,更是进一步造成算法偏见、算法决策两级分化等算法风险,严重阻碍社会健康发展。基于此,通过发现算法的不同阶段的立法漏洞,在算法模型建立阶段加强对个人信息的强制性披露,在算法数据输出阶段完善算法的评估程序,在算法结果输出阶段建立第三方的评估主体,同时设立分级标准增强“自动化决策”的实操性,更加系统评估算法应用带来的社会影响和多元风险,为算法问责制在微观领域提供一个有力抓手,以期为算法影响评估制度的有效运行构建良好的运行生态。

NOTES

1《个人信息保护法》第55条 有下列情形之一的,个人信息处理者应当事前进行个人信息保护影响评估,并对处理情况进行记录:(一) 处理敏感个人信息;(二) 利用个人信息进行自动化决策;(三) 委托处理个人信息、向其他个人信息处理者提供个人信息、公开个人信息;(四) 向境外提供个人信息;(五) 其他对个人权益有重大影响的个人信息处理活动。第56条 个人信息保护影响评估应当包括下列内容:(一) 个人信息的处理目的、处理方式等是否合法、正当、必要;(二) 对个人权益的影响及安全风险;(三) 所采取的保护措施是否合法、有效并与风险程度相适应。个人信息保护影响评估报告和处理情况记录应当至少保存三年。

2算法模型是指为了特定的用途或目的,算法在特定的操作环境中运行,但该模型所采用的道德标准、法律标准、技术标准并不一定与其希望达到的目的相适用。

参考文献

[1] 胡小伟. 人工智能时代算法风险的法律规制论纲[J]. 湖北大学学报(哲学社会科学版), 2021, 48(2): 120-131.
[2] 张凌寒. 算法评估制度如何在平台问责中发挥作用[J]. 上海政法学院学报(法治论丛), 2021, 36(3): 45-57.
[3] 周良金, 谭家超. 论我国食品安全风险评估制度重构[J]. 西南民族大学学报(人文社科版), 2018, 39(12): 91-96.
[4] 刘权. 论个人信息保护影响评估——以《个人信息保护法》第55、56条为中心[J]. 上海交通大学学报(哲学社会科学版), 2022, 30(5): 39-50.
[5] 梅夏英. 社会风险控制抑或个人权益保护——理解个人信息保护法的两个维度[J]. 环球法律评论, 2022, 44(1): 5-20.
[6] 彭光明, 季聪聪. 算法的风险及法律规制探析[J]. 河北科技大学学报(社会科学版), 2022, 22(4): 31-38.
[7] 张涛. 自动化系统中算法偏见的法律规制[J]. 大连理工大学学报(社会科学版), 2020, 41(4): 92-102.
[8] 崔聪聪, 许智鑫. 数据保护影响评估制度: 欧盟立法与中国方案[J]. 图书情报工作, 2020, 64(5): 41-49.
[9] 张恩典. 算法影响评估制度的反思与建构[J]. 电子政务, 2021(11): 57-68.
[10] 肖冬梅, 谭礼格. 欧盟数据保护影响评估制度及其启示[J]. 中国图书馆学报, 2018, 44(5): 76-86.