算法行政的正当程序风险与法律应对研究
Research on Due Process Risks and Legal Responses of Algorithmic Administration
DOI: 10.12677/ojls.2024.124371, PDF, HTML, XML, 下载: 63  浏览: 107 
作者: 王雅菲:长春理工大学法学院,吉林 长春
关键词: 算法行政正当程序算法决策Algorithmic Administration Due Process Algorithmic Decision-Making
摘要: 数字法治政府是数字技术赋能政府治理的新形式,其中一项重要内容就是算法行政,它是新型行政治理模式。算法行政,与传统行政相比,其能够提高程序效率,一定程度上保持行政中立,但也存在新的风险,包括对行政公开、公众参与等正当程序要求的缺失。算法公开、算法审查、算法解释是解决算法行政正当程序问题的重要方式,但这些方式在实际适用中存在困境,为此,需要在利益衡量的基础上进行算法行政公开,以解决利益冲突问题,将法益损害成本降到最低;引入技术性工具对算法进行测试突破算法审查阻碍;明确解释内容和解释标准,提高公众对算法行政的可接受性以及参与程度。
Abstract: Digital rule of law government is a new form of government governance enabled by digital technology, one of the important contents is algorithm administration, which is a new administrative governance mode. Compared with traditional administration, algorithm administration can improve the efficiency of the procedure and maintain the administrative neutrality to a certain extent, but there are also new risks, including the default of due process requirements such as administrative openness and public participation. Algorithm openness, algorithm review and algorithm interpretation are important ways to solve the problem of algorithm administration due process, but these methods have dilemmas in practical application. Therefore, it is necessary to make algorithm administration open on the basis of interest measurement to solve the problem of interest conflict and minimize the cost of legal interest damage; introduce technical tools to test the algorithm to break through the obstacles of algorithm review; clarify the content and standards of interpretation to improve the public’s acceptance and participation in algorithm administration.
文章引用:王雅菲. 算法行政的正当程序风险与法律应对研究[J]. 法学, 2024, 12(4): 2625-2631. https://doi.org/10.12677/ojls.2024.124371

1. 算法行政基础理论概述

1.1. 算法行政相关概念区分

算法行政1,理论上,最早由鲁夫罗伊提出,他在数字领域引入治理术,并提出“算法治理术”,我国将其转译为“算法行政”。立法实践中,相关法律法规虽并未直接规定此概念,但条文中都能体现算法行政的含义2。算法行政是算法嵌入到行政活动中,从而催生了一种智能化、新颖的权力行使和行政治理模式。

1.1.1. 算法行政与传统行政

算法行政与传统行政是两种不同的行政管理模式,前者行政活动的进行依靠算法技术的应用,自动化较强,后者行政活动的进行则依靠“人”,人的自主性较强。基于二者在依赖对象上的不同,在具体实践中,算法行政发挥技术本身的优势,比传统行政更为高效,同时削弱人的主观偏见,一定程度上增强行政决策的中立性。

1.1.2. 算法行政与自动化行政

自动化行政,是人工智能在行政领域中的应用 [1] ,指行政过程中的某特定或所有环节,都可以由人工智能代为完成,实现部分或全部无人化的行政活动 [2] 。其重点是无需以人为主,借助人工智能、数据和网络实施行政行为,并不考虑人的参与程度。而算法行政属于狭义上的“自动化行政”,算法行政的核心流程不需人为的干预,是数据的收集、挖掘以及预测三个阶段的融合。所以,两者并非完全相同的概念,而是有所联系和区别。

1.2. 算法行政的价值优势

随着人工智能技术的不断发展,大数据、区块链等技术已广泛应用于行政审批、应急管理等多个公共行政领域。相较于传统行政,算法行政具有利用机器的智能性来提升行政治理效能以及利用技术的中立性来防止行政恣意的双重价值优势 [3] 。

算法行政有效提高行政效率。行政程序中的效率价值,主要表现为将高效便民的原则贯彻到了整个行政过程之中,力求行政活动能够高效妥善地进行。算法行政中的部分或所有环节可以由人工智能代替人工完成,从而解放人力,缩减行政事项办理的时间和流程,提高服务质量和效率,方便当事人。

算法行政一定程度上保持行政中立。在传统行政治理中,行政主体由于人的主观性,多少会受到价值取向、人情关系等事实和法律以外的因素影响,难以保持决策的客观公正。而在算法行政治理模式下,通过算法应用导入处理某类事项的有关标准和考量因素,预先设定好信息收集和分析、决策等程序,再根据事实,自动地输入和输出,最终完成法定程序,保持对同类事项决策的一致性。这极大减少行政机关及其工作人员在执法时纯粹个人情感等主观成分的介入,规范行政裁量权的行使 [4] 。

2. 算法行政实施的正当程序风险

任何技术都具有两面性,算法行政在提高行政效率和中立性的同时,也存在传统行政法要求的正当程序原则被架空、行政问责主体模糊等风险,从而使算法行政的正当性遭受质疑。由于算法黑箱等固有因素以及算法决策的瞬时性及难解释性等因素,导致传统行政法上所要求的行政公开、公众参与等正当程序原则难以贯彻。

2.1. 算法黑箱冲击行政公开

行政公开原则,作为正当程序原则的内容之一,要求行政主体在行使行政职权时,除涉及国家机密、个人隐私和商业秘密外,必须向行政相对人及其社会公开与行政职权有关的事项3。算法的运行逻辑结构在形式上是数据的输入和决策结果的输出 [5] ,对外展现的只有两端,中间运行过程则存在隐秘性。由于此操作过程的隐秘性而产生“黑箱”4。“算法黑箱”则是指算法系统内部的模型架构、运行逻辑和推理过程等除算法设计和研发者之外,他人无法知晓,因此对他人来说关于算法系统的以上内容则如同关在黑箱中无法查看和理解。算法运行过程和逻辑等的不透明使行政公开原则所要求的行权主体、依据以及过程等在算法行政中无从公开,进而使社会公众,至少使行政相对人对行政过程的知情权和监督权遭受侵害,进而可能还会影响行政相对人对错误行政决策请求救济的权利实现。

2.2. 算法瞬时性影响公众参与

参与原则是正当程序的另一重要要求,其核心在于听取意见,具体内容可以包括两个方面:一是在具体行政行为中,当事人有权提出异议,行政主体应保证当事人陈述、申辩和要求听证等程序性权利的行使;二是公众应有权利参与行政活动,这体现了正当程序的公共意志形成功能 [6] ,公众通过参与将自身价值判断和权利主张融入其中,对行政过程进行监督,防止行政权滥用。对应的,行政主体负有说明理由义务,包括行政主体在作出影响行政相对人权利的决定时,应向行政相对人解释说理,包括事实和法律依据等;对于抽象行政行为,如行政机关在制定行政法规、规章时,应广泛征求公众意见,说明行为目的和影响。

在行政过程中,由于算法决策的迅速、瞬时性,使得行政相对人陈述、申辩及要求听证等程序性权利被吞噬。由于算法决策的自主性,算法行政系统自行决策,缺少对“行政主体应向当事人告知和说明理由,并听取当事人意见”的程序规则设置,当事人便无法参与到与自身利益有关的行政决策过程中,行使程序性权利,提出自己的主张,保证决策的准确和客观全面。例如2005年“杜宝良”案5,从电子抓拍到作出处罚决定,全由机器自行操作,无人履行告知义务,杜宝良连续违章105次却对行政处罚决定不自知,更无法参与该处罚决定的作出过程,要求行政机关说明理由并行使程序性权利。

3. 算法行政法律应对及困境

3.1. 正当程序风险的法律应对措施

针对以上程序性风险,需要加强人工对算法行政的干预,重视行政主体的作用,具体可采用以下法律应对措施进行干预:

3.1.1. 以算法公开实现行政公开

目前,算法公开是解决算法黑箱问题,实现行政公开的重要方式,是行政法中的行政公开原则在算法行政领域的延伸。行政主体应负有公开算法行政的义务,具体公开内容包括算法的源代码、运行逻辑、基本架构等信息,使行政相对人和社会公众能够了解算法行政的运行,并有机会知晓和反驳错误的算法决策,维护自身合法权益。

3.1.2. 以算法审查、算法解释保障公众参与

算法行政中决策的作出通常是迅速且无需人工介入的,这使得行政相对人及社会公众难以参与到行政活动中来,将自己的价值判断和权利主张融入到决策考量中,同时行政机关的告知和说明理由义务也被缩减,从而影响行政相对人对行政决策的质疑和反驳和程序性权利的行使。可通过以下方式保障公众参与:

第一,可将陈述、申辩等行政相对人参与的程序后移,由事中程序转为事后纠正程序。也即,可在决策作出后,赋予当事人提出意见和反馈的权利,由算法运营者听取当事人意见、接受反馈或建议、复核算法推理和决策,一旦确定算法决策存在错误,可根据具体情况撤销该决策,并要求算法行政系统调适后重新作出决策或算法运营者依据事实和法律自行决策,以上可称为算法审查。

第二,对于行政主体就行政行为及最终决定难以向行政相对人履行告知和说明理由义务这一情形,可以创设算法解释来进行补足,进而保障行政相对人相关权利的行使。并且对算法行政中公开的部分内容,非专业的行政相对人或社会公众难以真正理解其确切意涵,造成所谓的“无知的不透明” [7] ,因此,只是公开算法并不能达到行政相对人以及社会公众理解算法行政运行过程,监督行政权力行使的效果,行政主体还需对公开内容进行解释。算法解释是算法行政公开后,保障公民有效监督行政的必然要求。

3.2. 法律应对的实施困境分析

3.2.1. 算法公开中的利益冲突

算法公开虽然有助于算法行政过程透明化,一定程度保障行政相对人及社会公众对行政权力运行的知情权和监督权,但同时也与以下利益产生冲突:

第一,与企业商业秘密冲突。目前,算法行政所运用的算法系统,主要是通过公私合作的方式,向企业购买或签订技术使用合同获得的。对于作为算法技术开发者和算法行政系统供应者的企业来说,若将算法的源代码及逻辑架构等信息公开,可能会被竞争对手或其他不法分子窃取、恶意篡改和利用,进而侵害企业的商业秘密,丧失其在市场竞争中的商业优势。

第二,与个人隐私权冲突。算法行政系统的运行涉及输入数据环节,输入的数据既包括行政相对人的个人数据,亦可能包括用于比较分析或作为模型基准的其他社会公众的个人数据或宏观统计数据 [8] 。算法公开当然包括算法行政进行所依数据的公开,此时,可能会侵犯相对人及其他公众的隐私权益,从而使得算法公开所保护的行政相对人权益与个人隐私权之间产生冲突。

3.2.2. 算法审查的实施受阻

算法审查的最大难题就是复核算法推理和决策时受算法黑箱的阻碍,算法运营者只能依算法行政系统中“输入和输出数据”对算法决策进行审查,而对藏于“黑箱”的算法运行逻辑和架构却无从知晓和理解。当前的解决思路是求助于算法设计者,由其提供有关算法推理的逻辑信息。但由于算法是不断自主更新学习的,会根据多次自主决策调整更新数据等,即使求助算法设计者,也只能从其获得初始的训练数据和有关机器自主学习的代码设置等,这远不够进行算法审查。

3.2.3. 算法解释范围和标准有待确定

目前,算法解释存在两个问题,一是解释范围问题,即解释什么;二是解释标准问题,即解释到什么程度。算法行政中,由行政主体即算法运营者对算法进行解释,是行政主体履行说明理由义务的重要途径,也即行政主体应当进行算法解释。考虑到算法的复杂性以及行政效率、成本等因素与行政相对人及公众可接受、能理解程度,行政主体既不宜对算法进行全面解释,也不能不解释,因此行政主体应对哪些内容进行解释,解释到何种程度,都需进一步确定。

4. 算法行政法律应对的完善

4.1. 利益衡量,解决算法公开难题

正常情况下,涉及商业秘密和个人隐私的内容并不公开,但算法行政需公开的源代码、逻辑架构以及数据等信息大都与这两种利益牵连,若公开,则会使其受到侵犯,若不公开,行政权的透明行使便无法保障,因此我们需要对算法行政公开与商业秘密和个人隐私各涉及的利益进行衡量,明确他们之间的法益顺位,优先保护主要法益,同时兼顾次要法益,使次要法益受损代价达到最低的同时,实现主要法益。

4.1.1. 相关法益梳理

一是算法行政公开所涉及的利益主要包括卫生健康、社会保障等算法行政领域涉及的公民生命健康权、基本生活保障权等利益。二是企业商业秘密涉及企业在市场竞争中同行竞争利益以及算法研发技术的知识产权和相关财产权益。三是个人隐私则涉及到个人的隐私权益,包括个人生活安宁等。

4.1.2. 相关法益排序

我们需要对上述利益进行排序,作出法益衡量。一般来说,生命健康权、基本生活保障权要高于其他法益;企业商业秘密的财产权益也并非必然会因算法公开而丧失,政府可以通过予以经济补贴等形式,弥补算法公开给企业带来的经济损失。综上可以看出,算法行政公开涉及的法益偏向为主要法益,企业商业秘密和个人隐私则偏向次要法益,因此,应在保护算法行政公开的同时,兼顾商业秘密和个人隐私保护,力求算法行政公开与商业秘密和个人隐私间的衡平。

4.1.3. 次要法益受损成本最小化

算法行政公开并非完全抛弃商业秘密和个人隐私涉及的法益,而是需将因公开造成的损失降到最低。针对此问题,目前可行的方案则是“自动化决策系统影响评估报告”,这是一种针对自动化决策系统及其开发过程的评估研究,由算法运营者(购买和使用算法行政系统的行政主体)和行政审计机关对算法行政系统运行的专业技术信息进行分析,揭示该系统在精确性、公平性、隐私性与安全性等方面的影响,并保证相关评估信息的真实性和质量,从而便于公众理解和信任算法行政公开的信息。相对于直接对公众披露算法行政系统的模型架构、预设逻辑、源代码等,该系统能隐匿商业秘密、个人隐私等敏感内容,并直接切入问题核心,也即展现算法行政系统的运行可能给行政相对人和社会公众带来的影响与风险及可能的反馈与申诉渠道等。

当前,我国《个人信息保护法》中确立的“个人信息保护影响评估制度”,实际上就发挥了“自动化决策系统影响评估”的作用。但该制度并非专门针对算法行政系统设计的,因此,要进一步达到自动化决策系统影响评估效果,还需要细化完善该制度。具体可从四个方面完善:

第一, 实施阶段上,要考虑到算法行政系统的自我更新特性,由对算法行政系统的事前评估转为事前事中相结合的评估,对算法行政系统正式运行后定期开展评估;第二,评估主体上,为保证评估信息的客观性和真实性,由算法行政系统的部署运营者本身担任评估主体,转为相应的行政审计部门担任评估主体,借助行政监督机制保证评估质量;第三,评估范围上,评估不能仅关注对个人权益的影响及安全风险,还要适当扩大到对群体利益设社会利益的影响等;第四,评估结果上,由于影响评估是代替直接披露算法技术,满足行政相对人和公众对算法行政知情权和监督权一种算法公开方式,因此,需要将评估结果公开,补充规定行政主体向公众公开评估报告并答疑的义务,从而充分保障公众对算法行政的知情权。

4.2. 算法审查阻碍的攻破

为解决算法黑箱阻碍算法审查难题,可以通过技术性工具对算法行政系统进行测试审查。

首先,选择技术性工具操作测试审查实验,是因为,需要对算法行政系统进行多次测试,涉及大量数据,才能获得关于决策是否正确的准确结论。若依靠行政机关人工操作,完成一次测试都需很长时间,后续还要对系统进行调整,重新作出行政决定,整个过程的效率会非常低下。而技术性工具的运作依托于计算机系统,可以在短时间内对算法进行“大批量”测试,并自动统计多次测试数据,进而发现运用算法作出行政决定时存在的问题和错误。

其次,针对可能导致算法决策错误的不同原因,可依托技术性工具,依照不同方法,进行测试审查实验。以算法歧视可能导致的错误决策为例,可以采用控制变量的方法6,通过多次反复测试发现某一因素(例如行政相对人的职业身份)是否会影响行政决定,再判断该因素是否属于相关法律法规允许的考虑因素范围。若改变该因素并不影响行政决定的结果,则并不存在此方面的算法歧视导致的决策错误;若改变该因素影响行政决定结果且该因素非相关法律法规所允许的考虑因素,则存在此方面算法歧视导致的决策错误。该方法需要大量反复的测试,才能得出准确结果,而依托技术性工具采用该方法,则会快速有效地完成多次测试,实现短时间、低成本的算法审查。

最后,采用技术性工具对算法行政系统进行审查测试实验,还需要会同算法系统开发者及相关领域专家进行,以弥补行政机关技术专业性的不足,保证算法审查的顺利进行。

4.3. 重点解释和解释标准的选择

算法解释的目的是向行政相对人及公众说明算法决策的合理性,让其理解算法决策过程,提高对算法决策的信任度和接受度,同时,也使其有机会对通过算法技术进行的行政行为提出质疑,促进相应权利行使,更好地监督算法行政。解释内容和解释标准则应围绕着该目的确定。

4.3.1. 挑重点解释

对于解释内容,算法行政系统的运行非常复杂,若将算法运行中涉及的所有内容,包括数据如何输入输出等细节内容都进行解释,则对算法决策的具体案件的解释,一方面,行政主体的工作量巨大,行政效率低下;另一方面,行政相对人本意也并非想了解算法运行的某些细节,以致解释内容意义不大。综合考量,行政主体应结合案件具体情况、行政相对人要求、对行政相对人权利义务有无实际影响等因素来确定算法行政活动中的重点内容并进行解释。

4.3.2. 解释标准的选择

对于解释标准,目前存在两种模式,一是以算法模型作为解释中心,二是以决策过程和结果作为解释中心。我们需要选择合适的解释标准,避免标准过高而难以解释、标准过低而解释不全的情形。

首先,前者相对来说,对行政主体的解释义务要求更为严格,强调不仅要解释运用算法作出的行政行为的内容,包括作出决定的事实和法律依据等,还要解释算法运作的整体架构,具体包括作为算法运行形式的代码、算法作出决策的推理过程等。由此看来,行政主体对此做出解释,会比单纯围绕决策过程和结果的解释更全面,行政相对人及公众知晓的更充分,但这对并不具备算法技术专业能力的行政主体来说,至少当前阶段要求过高,行政主体本身很难理解代码,更不能期待其对行政相对人及公众解释代码。

其次,后者相对来说,更容易实现算法行政的解释目的。主要原因在于,该模式要求的解释内容大都与行政行为所针对的具体案件事实和当事人权利义务直接联系,具体包括输入数据有哪些(如输入的法律依据、裁量因素、案件情况等)、数据在最后结果中的权重、决策时考量的因素及各自比重、具体决策的理由、同类案件或相似情形做不同决定的原因 [9] 、算法决策的环节等。在具体的通过算法作出行政决定的案件中,相较于解释算法模型,行政主体对以上内容解释,能够使行政相对人快速知晓如此决策的原因,也能针对解释的具体内容提出质疑和反驳,从而维护自身合法权益,并监督算法行政,督促行政主体及时纠正错误决策。

因此,基于当前行政主体的数字专业素养和公众理解能力以及解释目的,我们适合采用第二种模式,即主要围绕决策过程和结果进行解释。

5. 结语

总而言之,算法行政是时代的新产物,存在着新问题,而算法行政的完善与规范对推进数字化法治政府建设7具有重要意义,因此,本文从正当程序角度揭示算法行政存在的问题,并针对性地提出相关法律应对措施,分析应对措施实施困境,并提出完善建议,力求促进数字时代下行政活动规范有序进行。

NOTES

1算法行政,即通过算法技术进行自动化行政治理和决策。

2如2021年修订的《行政处罚法》增加了非现场行政处罚程序,非现场行政处罚程序则是通过技术设备自动采集数据,运用算法自动分析作出初步判断,由算法决策辅助人工决策的部分自动化行政程序,其中部分非现场处罚还能通过算法实现自动执行。《行政处罚法》第四十一条即是关于此部分的规定。

3广义地理解“与行政职权有关的事项”,包括行政权力运行的主体、依据、过程和结果向行政相对人公开,即行政主体行使行政权的行为以公开为原则,不公开为例外。

4所谓“黑箱”是指人们对特定系统开展研究时,通常把系统作为一个看不透的黑箱子,系统内部的结构和相互关系隐藏在这个黑箱中无从知晓,研究者仅从其输入输出的特点了解该系统规律。

5新华网北京2005年7月28日电,2005年5月23日,杜宝良偶然查询得知,自己于2004年7月20日至2005年5月23日在驾驶小货车运菜时,在每天必经的北京市西城区真武庙头条西口被“电子眼”拍下闯禁行105次,被罚款10,500元。此前,从未有交管部门告知他有违法行为。

6“控制变量法”是自然科学领域中一种最基本的研究方法,即在研究某个因素对算法行政决定结果的影响时,只改变单一因素,并保持其他变量不变,从而确定这个因素是否会影响问题结果,通过对每个因素变量的逐个测试和评判,找出影响算法行政决定的所有因素。

7中共中央、国务院印发的《法治政府建设纲要(2021~2025)》指出,应“坚持运用互联网、大数据、人工智能等技术手段促进依法行政,着力实现政府治理信息化与法治化深度融合,优化革新政府治理流程和方式,大力提升法治政府建设数字化水平。”

参考文献

[1] 马颜昕. 自动化行政的分级与法律控制变革[J]. 行政法学研究, 2019(1): 80-92.
[2] 马颜昕. 自动化行政方式下的行政处罚: 挑战与回应[J]. 政治与法律, 2020(4): 139-148.
[3] 陈亮, 薛茜. 行政公开视域下行政决策算法化的法律规制[J]. 理论月刊, 2021(3): 119-129.
[4] 覃慧. 数字政府建设中的行政程序: 变化与回应[J]. 行政法学研究, 2022(4): 145-155.
[5] 侯东德, 张可法. 算法自动化决策的属性、场域与风险规制[J]. 学术研究, 2022(8): 36-37.
[6] 张凌寒. 算法自动化决策与行政正当程序制度的冲突与调和[J]. 东方法学, 2020(6): 4-17.
[7] 张涛. 自动化行政对行政程序的挑战及其制度因应[J]. 华中科技大学学报(社会科学版), 2022(5): 63-65.
[8] 王怀勇, 邓若翰. 算法行政: 现实挑战与法律应对[J]. 行政法学研究, 2022(4): 104-118.
[9] 朱瑞. 论算法行政的技术性正当程序[J]. 财经法学, 2023(4): 103-117.