1. 引言
从技术的角度来看,算法,本质上是基于特定的数学模型,将输入转化为输出结果的系列计算步骤,也就是说,它本质上是一种复杂的计算结构与计算过程。算法可以用不同的方式来表述,如,语言、程序、代码等,并都是由机器阅读与执行的。随着计算机技术的发展,算法已经进化成可以自动完成计算、数据处理,而人类自身处理这些事情,成本巨大。尤其是近几年以来,随着人工智能和机器学习的发展,算法技术又被推向了一个更高的阶段,出现了机器自主学习算法,它使得计算机本身就可能比人类更有效地解决某些更为复杂的问题,或是更有效地做出预测和决策。
算法能给人们带来便利,如节约成本,改进福利。但也可能使得人们的信息来源受到限制,出现所谓的信息茧房现象,平台的算法根据个人的偏好与特征只提供你愿意看到的信息;也可以使得传统条件下很难达成的共谋更容易实现,从而出现算法共谋。
在OECD的报告中,算法技术无论是在企业经营过程中,还是在政府管理过程中,都能得到广泛的应用。同时,算法技术的应用无论是从供给侧还是在需求侧,都有可能对竞争有促进作用。参见OECD, 2017文献 [1] 1。在数字经济时代,算法技术之所以能够被广泛应用于各类企业经营和社会场合之中,主要是由于可以将算法技术嵌入到相应的产品和服务之中,比如,算法实现自动计算、自动收集数据、自动进行数据分析,以及自动进行决策等。算法的这种高度自动化的属性降低了传统人工干预的时间成本。当然在这一过程中,也会有人的因素、人的意志、人的价值等的渗透,它们都可以被融入到算法之中。这样,算法也就很难保持一种竞争中性的立场,算法的这种非中立性,就有可能导致算法歧视、算法霸权、甚至算法共谋等风险。
大数据与发达的技术工具(如定价算法)的结合,深度影响了每一个人的日常生活,也改变了许多企业经营中的竞争态势,以及它们做出商业和战略决策的方式。越来越多的市场经营者已经开始借助于计算机算法这一强有力的工具来改进它们的定价方式、完善它们的顾客服务,以及更好地做出市场趋势的预测。随着算法技术的广泛应用,对人们的经济生活无疑将产生重大的影响,在这一过程中,既可以使企业受益,如节省成本;同样也会使消费者受益,比如消费者可以获得新的更好的产品或服务。同时,算法的广泛使用也已经引起了人们对可能的反竞争行为的关注,因为算法可以使得企业更容易达成共谋,而且在这一过程中无需任何正式的协议或人为的干预。这无疑使得竞争法的实施和市场监管,都将面临挑战。
我们是否需要对算法本身进行监管,鉴于算法的多重风险和机器自主学习的出现,这种监管政策选择的结果,对于竞争和创新,又将会产生什么样的结果呢?
面对算法问题,是监管还是放手,我们面临着一个权衡的问题。在规制经济学看来,有关监管的担忧在于如何为被监管者提供激励,同时又如何防止监管机构被监管者俘虏的问题。人们对于监管机制的设计问题进行了卓有成效的讨论,其中集大成者当推拉丰和梯诺尔等人工作。政府的监管在弥补市场失灵的前提下,要保证市场的效率,就必须给被监管的市场主体提供相应的激励,那么,监管政策或监管工具就必须满足参与约束和激励相容约束。参与约束要求市场主体愿意服从政府的监管,激励相容约束要求市场主体的行为必须按照监管政策的设计思路来进行。但是,这种激励监管的最大问题就是,政府监管的本来意图是要弥补市场失灵,如弥补信息不对称,但是监管本身也存在着严重的信息对称,监管者不可能完全掌握被监管对象的生产成本与技术等信息。另一方面,经验和理论上都有证明,经济上的监管措施容易引起特殊利益集团的游说行为,很容易产生监管俘虏现象。而且,作为对政府监管的替代,如果是由政府来研发算法并以此为产品和服务定价,那么,相伴而生的寻租行为,有可能会加重社会成本。监管者可能无法充分掌握市场,也不能客观预测市场动态。除了信息不完全和监管俘虏问题,政治的短视,与公众问责的缺失,都有可能使政府在采取反垄断行动时表现得不尽如人意,因为,政府无须像私人企业那样承担所有错误行动带来的后果。
在监管领域,完全不同于私人问题。在私人企业的经营过程中,委托代理和机制设计都可能得到较好的运用。因为,委托人要承担对代理人类型判断失误的代价。例如,一个企业所有者,经过考核,聘请一个经理人作为总经理,来管理自己的企业,但实践证明,这个经理人的能力不足以把他的企业经营好,并造成企业的亏损,谁来承担这一代价?显然是这个企业的所有者自己来承担。但在监管领域,作为监管者的委托人,它不会为自己的监管失误负责,承担后果的可能是第三方,如消费者。
在做出对算法监管问题的权衡之后,本文接下来是这样安排的:首先,从算法的技术逻辑出发,讨论算法治理的选择,确立对算法的事前的义务性规范,为事后的算法监管确立某种前提;其次,我们从算法可能引起的市场风险和市场失灵的角度,界定算法监管的依据;再次,我们提出针对算法治理和监管的可行工具;最后是小结。
2. 算法的逻辑与算法治理
人类在进入数字经济时代以来,算法,作为一种全新的技术工具,已经得到较广泛的应用。然而,可能有一点是需要明确的,就是在应用算法的过程中,算法所呈现出来的是一种什么样的形态。在这一过程中,算法程序可能不仅仅表现为一种单纯的系统性逻辑规则、数据结构与数学模型,也不仅仅是一个自动实现特定目标的决策系统,更多的时候,算法可能体现为是一个包含了人的因素的技术系统。因为,在算法程序中,既包含了机器的自动化因素,也包含了人的价值因素。比如,自主学习算法的形成与运行,就至少包含两个阶段,第一个阶段是算法模型的训练,第二个阶段是算法模型的应用。其中,训练阶段主要的环节就包括:数据的输入、数据的分析与模型优化的学习、以及结果的输出。先看输入环节。在这个环节中,在基本问题明确的前提下,主要是收集与整理相关数据,并对数据进行清洗与归类。再看学习环节。在输入的基础上,这个环节主要是对输入的数据进行训练,并以此对模型的性能进行训练。最后是输出环节。对于模型最终输出的结果,需要对结果的准确性进行评估,以确保输出结果能够达到为算法程序设定的预期计算与决策目标。
由此,无论是从算法的技术逻辑角度,还是从算法模型的训练过程的角度,我们都可以看出,尽管算法程序中已经具备了自动化的机器因素,但是在算法的开发与运行过程中依然嵌入了人的价值因素。正因为如此,我们可以说,算法程序中体现了机器因素与人的因素的二维价值结构。这也就意味着,算法技术并不是完全中立的。再者,我们知道,无论是弱人工智能,还是强人工智能,算法都或多或少地具备了自动实现特定目标的计算功能。这同样意味着,一方面算法会对人的价值空间进行部分替代,另一方面算法也会对人的决策主体性做出部分侵占。算法技术的这种非中立性,会导致在算法的开发、运行,以及在算法决策过程中,都可能出现一系列技术异化现象。首先,算法技术的这种异化现象,表现在算法程序对人的独立性与自主性的侵蚀上。刚才说到,在开发算法程序的前端的输入环节,算法就严重依赖于数据的有效性。而具备自动学习、自动判断以及自动分析能力的算法,实质上也就具备了人的部分能力。作为传统决策主体的人,对输入环节或者运行过程中的数据结构与数据类型,即使是不进行干预,算法依然能够自动地抓取数据、对数据进行分析、并对相关因素进行预测。从这个意义上来讲,人的主体性受到了削弱。其次,算法技术的这种异化现象,体现为算法对决策系统原则的破坏。大家知道,在传统决策系统中,决策方案的筛选与评判,是以人的理性原则或者满意原则为基础进行的。而在一定程度上,算法的决策原则却相对难以观测。算法运行过程中所表现出的非透明性,直接改变了传统决策系统的决策原则。再次,算法技术的这种异化现象,还体现为算法高度的社会嵌入属性所带来系列问题。参见阳镇,陈劲,2021,文献 [2]。这种技术异化所导致的社会问题,包括算法歧视、算法共谋、算法霸权与算法黑箱。
以排序算法为例,算法的非中立的原因是:首先,如果是按照竞争中立的原则,那么,智能算法对于不同商品的排序就应当不存在特别的偏好。但是,排序的过程本身包含了对数据的处理,而这些数据,是以消费者提交的搜索关键词为中心而收集起来的。排序过程本身也是智能算法实现作用与发挥功能的一个过程。可以说,智能算法天生就带有非中立的基因。随着电子商务的发展,线上存在大量的商品数据,如果想要通过人工筛选的方式对这些数据进行处理,任何一个消费者都是做不到的。通过算法对这些数据进行筛选和处理之后,所形成的结果又必然要进行排序。而排序的结果又必须以某种方式呈现出来。但是,显示界面是有限的,显示界面中的显著位置就必然会成为一种稀缺资源。其次,即便是从技术上看,智能算法也难以保证中立。在本质上,智能算法对商品数据进行排序,首先就需要处理相关商品的数据,而处理过程是根据算法程序中预设逻辑和标准来进行的。这样,在实际使用中,这种技术本身就无法保持中立。再次,非中立的排序本身可以就意味着创新。在算法竞争中,可以带来竞争优势。如一个会优先显示包含优惠的航班的算法,与一个完全中立的航班排序,前者肯定会更受消费者欢迎。参见戚聿东等,2021文献 [3]。
因此,针对算法所引发的问题进行监管与治理,首先就需要对算法技术进行治理。而对算法的治理,我们认为可以从两个层面着手。第一个层面,是设计一种制度框架,为开发与运用算法技术的研发团队建立一套责任型技术创新制度。如果要充分考虑到算法技术在设计、开发与运用过程中,有可能出现的潜在的负面效果,那么,这套制度至少应包括,算法应当具备标准化的系列技术参数,并尽可能地进行披露;对算法决策的可能的社会风险进行评估。这样,在算法的开发与运用过程中,由于技术团队的潜在的机会主义所带来的算法的技术异化问题,能够最大程度地予以规避。
第二个层面,是建立一种事前监管框架。算法的隐蔽性特征,使得算法的可问责性成为反垄断监管中所关注的重点问题之一。对于算法的治理,我们可以通过建立一种事前的监管制度来弥补事后监管的滞后性,并以此来辅助反垄断监管机构实施事后监管程序。例如,2017年,美国计算力学协会发布了一份名为《关于算法透明度和责任制的声明》的文件,目的是希望最大程度地降低算法的潜在危害,同时,又能实现算法的决策对市场的利好作用。这实际上就是一份对算法的事前监管文件。在这个声明中,计算力学协会确立了对算法的事前监管原则,其重点就是,要求算法的设计者和使用者,在事前有义务披露相关事务并分割责任。这样,在算法所引起的问题还没有发生之前,就对算法的设计者和算法的使用者提出要求。这种方式,既可以缓解监管者与被监管者之间的信息不对称问题,也可以部分缓解监管者和被监管者之间的技术能力不均衡问题。所谓的对算法的事前监管,其实质可能就在于,把算法独立进行决策所产生的行为结果,与算法的设计者,甚至是算法的使用者,关联起来,在此基础上,监管机构就可以进一步要求相关主体对算法所产生的异化的行为负责。参见谢栩楠,2021文献 [4]。
首先,在设计算法时,可以对算法的设计者提出要求。要求他们在算法程序中植入竞争中立的观念。一方面,可以要求算法的设计者,在设计算法时,要确保算法程序中不存在限制竞争的倾向,或者是要确保算法程序中不存在潜在的排除竞争、实施共谋的倾向。至于具体的操作方式,我们可以通过算法黑名单的方式,对于那些明显具有较大的排除限制竞争风险的辅助型算法,禁止对它们的设计与开发。比如,对于那些定向制定高于竞争水平价格决策的算法,或者那些有意与其他经营者在限定范围内交换竞争敏感数据的算法,都应当禁止对它们的设计与开发。另一方面,可以要求算法的设计者,在算法设计时,要确保在算法程序中体现反垄断法的原则性要求,或者要确保算法程序体现针对算法异化行为的具体要求。这样,在算法的设计与开发阶段,就在算法程序中就设置了算法的决策红线,从而尽可能地在后期避免算法在谋求利益最大化的过程中,做出不当的谋求垄断利益的决策。
其次,在使用算法时,也可以对算法的使用者提出要求。要求他们对算法运行的程序性内容与算法的决策结果进行备案。算法具有的大数据和高频交互的特点,给监管机构监管算法异化行为的工作带来巨大的作业量。因此,可以要求算法的使用者,在他们使用算法的过程中,定时记录算法程序的运行情况、相关数据,以及算法所做出的决策,同时要求算法的使用者对以上情况做出合理的解释。这种要求,是很有必要的。
在确立了上述两类事前的义务性规范之后,监管机构对算法所引发的问题进行事后追责,就具备了某种前提:比如,以算法共谋为例。算法共谋行为的产生,如果是由于在设计过程中就有意在算法程序中添加了共谋性设计所导致的,或者是由于算法程序忽视了对垄断性决策的必要禁止所导致的,那么,在算法共谋行为发生之后,算法的设计者就应当承担相应的法律责任。算法共谋行为的产生,如果是由于使用者在使用算法的过程中发出了共谋指令所导致的,或者是使用者利用有倾向性的数据诱导算法做出共谋决策所导致的,那么,算法的使用者,就应当基于算法的运行记录,有必要对算法的决策过程与结果进行有效的解释,否则,算法的使用者就应当对算法的共谋决策承担法律责任。在这样的责任原则下,责任承担的主体,就不是算法,这也就避免了有关争议。责任的承担主体,是造成了重大风险、而且是最有可能有效抑制风险的行为人,对于这一点,应该是没有争议的。在算法共谋的形成过程中,算法的设计者与算法的使用者,都是直接接触算法程序的主体,对于算法的运行和决策,他们也都有一定的能力做出干预。这样,在算法共谋的情形中,通过事前的监管规范,可以明确各类主体的事前义务。最终,不论算法共谋以哪种形式出现,凡是没有充分履行自身的责任或预防义务的行为人,在针对算法共谋的反垄断监管中,都应当成为责任主体。
此外,还应当从技术上构建算法审查制度。所谓算法审查制度,就是要判定一种算法,尤其是定价算法,是否应该被禁止。这种审查制度一般可以通过三个步骤,经过市场模拟,来判断一种算法是否具有反竞争的特征。第一步,将不同的算法在不同的市场环境中进行模拟,观察什么时候会出现共谋的结果或者竞争的结果,以及在什么样的市场里更容易出现这种结果。第二步,在第一阶段的基础上,把应该被禁止的算法所具有的某些特征,进行提炼,因为如果在运行中达成共谋的话,算法肯定会显示出某些特征。第三步,模拟检验,在部分算法被禁止以后,市场中的反竞争行为是否就因此而减少了。参见Harrington, 2019文献 [5]。当然,事前的审查,可以不仅仅局限于对算法本身的审查。为了防止诸如算法共谋等异化行为的发生,事前的审查,对于与共谋相关的市场环境因素,也可以进行测试和监管。
3. 监管算法的依据
随着计算方法的越来越复杂,算法治理的问题就出现了。接下来我们要讨论的是,应对现有的关切,竞争法是否足够了;或者,某种形式的监管干预是否需要。
我们首先说明算法可能给社会带来的一般风险,而市场的自我修复机制无法防患这种风险,从而导致市场失灵,这为市场监管提供了依据。然后,我们将提出一些有效的监管方式,以消除算法对市场竞争和创新所带来的风险。
为什么要对数字经济进行监管,也许至少部分理由是数字市场上少数巨头的增长,包括世界上最大的公司,互联网巨头负责提供多边信息产品,如操作系统、搜索引擎、邮件与消息、电子地图、电子图书等,反过来,这些服务所附加的价值,就部分取决于算法的开发,而这种算法又应用到多个终端,如动态定价、数据挖掘、结果排序、用户匹配、广告目标等,在提升市场效率的同时,也有可能产生妨碍市场竞争的结果。
互联网巨头们既带给社会高质量的在线服务、创新的技术,也引起了公众的关注,监管者以及政策制定者必然要对公众的关注做出相应的回应。因为由算法促成的这个世界的信息组织,在某种程度上是由少数市场主体之手的自动系统所控制的。
为什么要对算法进行监管,就是由于算法既存在风险,也存在市场失灵。
3.1. 算法选择的风险
算法的应用,除了会带来共谋、歧视(如大数据杀熟)等风险之外,算法还可能带来其他一些风险。
算法能够决定在线用户阅读什么新闻、能够决定他们可以接触的多媒体内容、他们可以购买什么样的产品。算法使用自动计算机系统来组织和选择相关信息,即算法选择。如果这种决策与预测是由机器决定的,显然会比由人来决定更有效、更准确、更有针对性。但有些风险,如算法作为市场力量滥用的工具的可能性,对竞争有直接的影响,而另一些风险,如信息偏见、市场操纵,则可能通过对新进入者创造障碍、降低创新激励,从而间接影响竞争。
一般来说,算法选择所带来的这些风险包括:
市场力量的滥用。算法可能被设计用来有助于反竞争的行为,如歧视、排斥交易等滥用市场支配地位的行为,例如,搜索引擎操纵搜索结果以使竞争对手失去优势、在互联网市场上通过算法合作来固定价格。
偏见。根据网上用户的偏好,过滤信息,导致信息偏见。如搜索引擎为线上用户只提供用户自己偏好或相信的新闻、向以前购买过的客户推荐类似内容的图书或电影。
操纵。操纵算法根据商业或政治利益来选择信息,而不是根据质量来选择信息。如在互联网市场上重复交易来操纵反馈及影响排名。
隐私权。自动系统可能过度收集用户的个人数据,甚至与第三方分享这些数据,侵犯用户的个人隐私。如,将用户的地址信息用于第三方以便它们更好地投放广告。参见OECD, 2017文献 [1]。
3.2. 市场失灵
正是由于算法存在上述风险,导致了人们对于算法是否需要某种形式的监管干预的问题。按照传统的监管理论,政府的市场监管是对市场失灵做出的回应。那么,在数字市场上,尤其是在算法应用下,是否存在着市场失灵呢?我们认为,算法的运用过程中至少存在着三个方面的市场失灵。
3.2.1. 一是由于算法缺乏透明度所导致的信息不对称
在设计与运行过程中,算法缺乏透明度,这一状况至少使得消费者在竞争性产品中进行选择的能力受到一定的限制。算法作为一种技术,也是企业技术创新的结果,它的设计原理与运行过程一般是不可能公开的。相应地,监管执法机构在确保这种自动化的系统是否遵循了现有的监管政策方面,也可能缺乏必要的信息。算法的透明度的缺失,是由于多数算法是属于企业的商业秘密。即使企业向监管者公开或分享它们的秘密,算法的复杂程序编码,也很难翻译,一般公众与监管机构也难以理解。当算法的产出高度依赖于个体的特性时,对算法的效果也很难做出评估。
3.2.2. 二是数据驱动的进入壁垒
要开发出一个适用的预测算法,需要具备综合性的资源,比如,先进的数据挖掘技术、先进的机器学习软件,以及先进的基础设施,如数据中心。而这些资源的投资受制于规模经济。算法发现行为的新的关系和新的模式的能力,同样需要接入从不同的渠道收集的数据,这又会导致范围经济。例如,欧洲议会就确立了中立和信任作为数据治理的核心原则,以促进整个欧盟间的数据共享。这样,对于一般的小型企业来说,由于它们缺乏必要的资源,它们就必然面临着进入壁垒,同时也阻碍着他们对算法的开发。
3.2.3. 三是与信息和知识相关的溢出效应
信息和知识的溢出效应,静态效率可能是最优的,但却不利于人类的创造性和创新。传统上,对于一般的技术创新,我们可以采用专利技术与知识产权保护等方式,将创新的正外部性内部化。但是,算法如何将将这种溢出效应内部化呢?算法的设计与开发可能比较好把握,纯粹是一个技术创新的问题。而算法运行的基础是基于大数据。例如,消费数据是消费者在消费过程中提供的,企业将这些数据加工开发之后可以获利,那么,作为生产要素的数据的价值应当如何确定,数据要素又应当如何参与分配呢?目前好像还没有一致的看法。知识与多维方法可能对人类创新过程产生重大的影响。
正是由于算法的应用,既存在着市场风险,也存在着市场失灵的情形,对算法市场进行相应的监管就具有了必要性。
4. 可能的监管干预
认识到算法在组织和加工信息过程中的作用,学术界和政策制定者们都在讨论可以用什么样的方式来监管算法。主要的讨论在于治理算法的制度选择、监管方式的选择,以及如果监管过度可能带来的风险。参见OECD, 2017文献 [1]。
4.1. 治理算法的制度选择
算法的治理可以在市场的解决方案与政府监管之间进行选择,当然,每一种选择都有一定的局限性。
一种方式是供给和需求侧的市场解决方案。从供给侧来说,从不同角度提供更好的算法,比如,通过使用机器学习来降低偏见,或者避免算法从事操纵。从需求侧来说,消费者采取行动,比如,拒绝使用特定服务,或依赖先进技术来保护自己以避免算法的风险。
当然,市场失灵也可以有其他的替代解决方案,如自我组织,公司为了改进声誉,而承诺好的原则与标准,自我规制,合作规制和政府规制。在这一长串的治理选择中,许多监管方法被提了出来,包括信息评估,搜索中立原则,数据保护认证等。
在政府干预这个选项下,也有人提出建立一个新的制度来治理数字经济。创建一个全球数字监管者,作为一独立的机构,对互联网和数据的监管方面的协调与监督负责。也就是说,为了对付算法和人工智能方面的风险,有人建议建立一个新的人工智能监管机制。
欧盟似乎对于建立统一的监管机制一直有一种偏好。以前就有建立统一的监管机构的实践。
在采取行动之前,监管者应当意识到这样的风险,过度的监管干预也会导致新的进入壁垒,同时降低企业投资于算法的激励。政府对市场监管对于竞争的影响应当进行评估。
4.2. 算法透明度与责任的评估
近年关于算法的监管干预的讨论,主要集中于使算法更透明,让算法对其后果负责。在美国计算机协会的公共政策委员会发布的声明中,就建议建立一套算法透明和责任的原则,试图将算法决策的危害最小化。委员会认为,在设计、实施和使用算法程序的过程中,算法的设计者和使用者应当意识到算法程序中的可能的偏见,以及算法运行的潜在的危害,这些偏见和危害,最终可能会施加于个人或社会。应当建立一种制度,使算法作出的决策承担责任。模型、算法、数据以及决策,应当被记录下来,以便审计。欧盟竞争委员会专员Margrerhe Vestager就曾指出,企业有义务,在设计算法时,遵循数据保护和反托拉斯法律。德国前总理默克尔也曾呼吁脸书和谷歌公开其算法。参见OECD, 2017文献 [1]。
但是,鼓励算法透明和责任,在实践中可能面临挑战。机器自主学习的算法决策中的黑箱更是如此。监管是否是最佳选择,评估与监管算法,以便确保算法的透明和责任,可能是一项艰巨的任务。如果多个机构涉及其中,监管的协调问题以及监管目标的冲突都可能存在。监管数字经济的另一个主要困难是,在线企业都是在现有法律下运营的,如隐私法,透明法律,数据保护,知识产权,消费者保护和竞争法。这就需要监管干预是在不同的政策领域之下进行。
4.3. 特定的算法异化行为需要特定的监管措施
如果是针对某一特定类型的算法异化行为,对算法的市场监管工具可能会更需要具有针对性。以算法共谋为例。
现在还不清楚,为了防止机器学习算法自动达成默示共谋,能不能创立某种监管,至少,目前还没有关于这种虚拟共谋的现实案例,这等于是要创立一种监管,来防止某种行为的负面影响,而这种行为目前还没有观察到。这是一件很困难的事情。
考虑到机器学习算法引致的共谋很难被观察到,以及数字市场的快速发展,在未来这种共谋一旦成为事实,几种形式的监管仍然是可以考虑的,比如:
一是实行价格监管。考虑到算法可能导致一种反竞争的价格,政策制定者可以引入最高限价监管。价格监管不仅降低了创新的激励,而且实际上能够导致一个更高的价格。
二是制定使默示共谋的稳定性削弱的政策。政策制定者可以制定改变数字市场的结构特征的政策,促使这种市场结构不便于共谋,比如,为了使市场透明度下降,可以对线上公开的信息进行限制,为了降低数字市场上的交易频率,他们可以增加价格调整时滞。当然,这些政策也会导致对竞争的限制,因为消费者可获得的信息减少了,企业快速调整价格以匹配需求与供给的速度被降下来了。
三是制定算法设计规则。最后,政策制定者可以最终考虑建立限制算法设计方式的规则。比如,可以要求算法忽略单个企业的价格变化,而只考虑整个行业的平均价格。但这种方式仍然会限制企业开发创新算法的能力。
5. 结语
2021年初,在《关于平台经济领域的反垄断指南》中,对于算法的异化行为提出了监管要求,比如,针对算法共谋的监管就提出了初步方案,要求监管机构运用多种手段,准确识别和认定算法共谋。算法共谋是最具典型特征的平台垄断协议。而识别算法共谋是一大难题,《指南》提出了初步的解决方案。在认定平台经济领域的协同行为时,《指南》认为,监管机构可以通过直接证据,来判定市场经营者之间是否存在协同行为。如果直接证据很难获取的话,那么,根据国家市场监督管理总局2019年发布的《禁止垄断协议暂行规定》第六条的规定,监管机构可以按照逻辑一致的间接证据,来认定经营者之间是否存在协同行为。与此同时,经营者也可以提出相反的证据,来证明它们之间不存在监管机构指控的协同行为。这一规定虽然较为笼统,但随着监管实践的展开,将会不断丰富。
总之,对算法所导致的异化行为进行监管,既不是仅仅监管某一个具体的环节,也不是仅仅某一个监管机构的事务,它是一个多环节的监管,也是一个多部门的协同监管。参见陈富良,2022文献 [6]。对平台经营者引入合规监管,有利于增强经营者自主推进高水平的反垄断合规的积极性,有利于探索建立平台企业反垄断合规的监管与评价制度,有利于培育竞争文化,促进技术创新和新技术的应用。
基金项目
江西省高校人文社会科学重点研究基地招标项目《数字经济背景下算法歧视的监管路径》(JD21045)。
NOTES
1OECD的报告《算法与共谋:数字经济时代的竞争政策》,参见:OECD,2017,Algorithms and Collusion:Competition Policy in the Digital Age,https://www.oecd.org/competition/algorithms-collusion-competition-policy-in-the-digital-age.htm。对这一报告的较详细的介绍与评价,可参见韩伟,2017,算法合谋与反垄断初探:OECD《算法与合谋》报告介评(上) (下),分别载《竞争政策研究》2017年第5期第112~120页和第6期第68~77页。