互联网平台滥用个性化算法推荐的反垄断问题研究
Research on the Antitrust Problem of Abuse of Personalized Algorithm Recommendation by Internet Platform
DOI: 10.12677/OJLS.2023.113234, PDF, HTML, XML, 下载: 269  浏览: 422 
作者: 赵诚皓:浙江理工大学法政学院、史量才新闻与传播学院,浙江 杭州
关键词: 个性化算法推荐反垄断差别待遇法律规制Personalized Algorithm Recommendation Anti-Monopoly Differential Treatment Legal Regulation
摘要: 数字革命正迎来一个以算法为核心的数据驱动时代,个性化算法推荐技术的逐渐成熟赋予了企业提供个性化商品和服务的能力,但也带来了反竞争效应。一方面,企业可以通过其实施“大数据杀熟”等剥削性行为直接损害用户利益;另一方面,互联网平台企业还可以通过实施限定交易等排他性行为提升自身竞争优势,损害竞争者利益。有鉴于此,应当采取构建算法问责体系,推动算法权力治理工具的建立并细化保障用户的退出权,以引导个性化算法推荐服务朝着有利于用户利益与促进互联网经济健康繁荣发展的方向发展。
Abstract: The digital revolution is ushering in a data-driven era with algorithm as the core. The gradual maturity of personalized algorithm recommendation technology gives enterprises the ability to provide personalized goods and services, but it also brings anti-competition effect. On the one hand, enterprises can directly harm the interests of users through exploitative behaviors such as “big data killing”. On the other hand, Internet platform enterprises can also enhance their competitive advantages and damage the interests of competitors by implementing exclusive behaviors such as restricted trading. In view of this, it is necessary to build an algorithm accountability system, promote the establishment of algorithm power governance tools and guarantee users’ opt-out rights in details, so as to guide personalized algorithm recommendation services to develop in a direction conducive to users’ interests and promote the healthy and prosperous development of Internet econ-omy.
文章引用:赵诚皓. 互联网平台滥用个性化算法推荐的反垄断问题研究[J]. 法学, 2023, 11(3): 1643-1649. https://doi.org/10.12677/OJLS.2023.113234

1. 引言

随着信息网络技术的蓬勃发展,现代商业实践中开始越来越广泛地运用算法技术。以信息网络为构架基础,数字技术为重要支撑,数据、算法为核心要素,承载相互依赖的双边或者多边主体进行商业互动并共同创造价值的数字平台脱颖而出 ‎[1] 。

目前,个性化算法推荐服务已被普遍运用于各大互联网平台,例如淘宝、京东等电商平台;抖音、快手、爱奇艺等视频平台以及微博、今日头条等信息平台…… ‎[2] 可以说,个性化算法推荐服务已经涵盖了日常生产生活的方方面面。互联网平台企业通过个性化算法推荐对用户采取个性化的营销策略,其主要方式是对用户进行识别、标记并收集用户在使用软件或网站时的行为轨迹,结合喜好与个人信息等数据,针对每个用户独特的需求进行个性化的信息推荐服务,使其能够更好地贴近用户的喜好。从理论上来说,这可以给用户带来极佳便捷且精准的服务体验。

但是,提供算法推荐的企业,都将点击率、购买转化率等商业化指标作为优化推荐算法的终极目标。在各大网络平台纷纷加大算法推荐的同时,这不仅对个人信息安全带来了强烈冲击,而且平台经济更多是一种流量经济,以自动化推荐为代表的个性化推荐算法能够极大程度地影响消费者的决策能力。相较于传统行业,互联网平台滥用个性化算法推荐所导致的反垄断问题面临着更多的问题与挑战。个性化算法推荐不仅可以影响企业使用“自我优待”“二选一”等排他性滥用行为排除现有的或潜在的竞争,还可以通过实施“价格歧视”“行为歧视”等剥削性滥用的行为直接侵害消费者利益。因此,有必要对互联网平台算法推荐进行反垄断分析,以帮助构建符合中国互联网平台发展所需的个性化算法推荐反垄断监管体系。

2. 互联网平台滥用个性化算法推荐的反垄断分析

2.1. 认定市场支配地位

为成功实施滥用市场支配的垄断行为,企业必须在某种程度上拥有市场支配地位。反托拉斯法将垄断权力定义为将价格提高到竞争水平(边际成本)以上并从中获利的权力。关于在数字经济时代中市场支配地位的认定,学界存在很大的争议。在SSNIP假定垄断者测试、市场份额与市场集中度方法等传统方式无法直接发挥作用的前提下,有学者主张,数字时代相关市场界定仍可以为认定滥用行为提供一个系统和清晰的分析框架 ‎[3] 。《国务院反垄断委员会关于平台经济领域的反垄断指南》中提到分析相关市场竞争状况,可以考虑相关平台市场的发展状况、现有竞争者数量和市场份额、平台竞争特点、平台差异程度、规模经济、潜在竞争者情况、创新和技术变化等。也有其他的观点认为,在大数据背景下,具有市场支配地位并不是实施算法差别待遇、限定交易的必要条件,即使企业占有市场份额较少,也有能力对消费者利益造成损害 ‎[4] 。

数字经济时代掌握用户信息等多寡,是否能够成为具有市场支配力量的判断依据仍需要进一步研究,但收集数据成本的降低的确增加了小公司利用个性化推荐算法实施差别待遇的机会。考虑到认定市场支配地位的确有难度,为提高执法效率,我国可借鉴欧盟《数字服务法》依用户数量认定市场势力,禁止超大平台的反竞争行为。

2.2. 滥用个性化算法推荐涉嫌垄断的具体行为

2.2.1. 差别待遇

差别待遇行为是指具有市场支配地位的经营者没有正当理由,对条件相同的交易对象,就其所提供的商品的价格或者其他交易条件给予明显区别对待的行为。对占有市场支配地位的经营者来说,差别待遇是一种有效的市场经营策略,但在《反垄断法》的角度,差别对待不仅对市场的竞争秩序产生明显的不利影响,而且还会因其歧视交易对手从而影响最终消费者的利益。互联网平台的差别待遇具体包括价格歧视、行为歧视和自我优待。

其一,价格歧视(Price discrimination)通常被称为“大数据杀熟”,是指经营者将用户数据作为“原材料”,借助算法推荐技术而实施的个性化价格策略。其在外观上往往呈现定价不透明,或是同样商品或服务对不同消费者收取不同价格,更甚者还表现为熟客较新客的价格更贵 ‎[5] 。一方面,算法推荐所导致的价格歧视损害了竞争者利益乃至市场的竞争秩序。价格歧视可以是一种较为隐蔽的提升经营者竞争优势的策略,加剧形成市场力量的悬殊,使其他经营者处于不公平的竞争地位,最终被排挤出市场,引发第一线损害 ‎[6] 。平台经营者可以通过推荐算法向那些支付意愿较高的消费者收取较高的价格,而对于那些支付意愿较低的隐性用户,则可以采用低价策略激活其消费。在给予支付意愿较低型用户价格时,可以通过持续性的低价策略,在保障了用户黏性的情况下也吸引了更多的新用户,而且即使是损失的收益也可以从支付意愿较高的消费者处获得交叉补贴,这使得拥有了算法推荐优势的企业可以将其转化为竞争优势。另一方面,算法推荐所导致的价格歧视掠夺了消费者剩余。消费者剩余是指消费者在购买一定数量的某种商品时愿意支付的最高总价与实际支付的总价直接的差额。而价格歧视的经济效果是将消费者手中的社会剩余转移到平台企业手中,即平台在掌握了用户数据后,对用户索取了其愿意支付的最高或较高价格,从而获得了用户的全部或大部分消费者剩余,损害了消费者利益。与此同时,算法推荐的同物不同价非但不能促进效率的提高,反而还会浪费社会资源,限制竞争。

其二,行为歧视主要是指商家基于其掌握的大量数据,对不同人群开展的有针对性、甚至带有一定误导性与欺骗性的营销行为。行为歧视不是价格等交易条件上的歧视,而是一种营销上的歧视,即以促成交易为目的,而不在于就同种商品对不同客户收取不同价格 ‎[7] 。平台算法推荐所导致的行为歧视体现在以误导或欺骗的方式进行区别性的推荐产品,即推荐算法会向不同的用户推荐不同的商品,并以此促成消费者达成交易。从消费者的角度来看,不同的人在使用同一软件或不同系统的同款软件时推荐的页面是不相同,区别性展示本身并无问题。因为每个人的经济能力与消费习惯并不相同,如果投其所好,便可以降低用户的搜索成本。但是如果产品的推荐带有误导性甚至欺骗性,则消费者的利益会受到损害。例如,平台基于掌握的消费者数据,可能会刻意向特定消费者推荐某些产品,如只推荐价格更高的商品,甚至消费者主动搜索也找不到更便宜的商品,而不带有这类标签的消费者则可以获得这类商品的推荐。例如某App推荐附近酒店时,安卓手机用户能看到的价格相对便宜的酒店却很少出现在苹果手机上的推荐页面 ‎[7] 。

其三,自我优待(Self-Preferencing)指的是当数字平台与平台内经营者存在竞争时,平台对自己的业务给予优惠待遇的行为。对于互联网平台企业,交易的对象包括潜在的用户,还包括平台内其他经营者,平台算法推荐对经营者采取的非价格性滥用行为也应当充分考虑。平台在向消费者推荐商品的同时也获得了所有经营者提供商品的数量、价格以及周期等数据,在此基础上通过人为操控推荐结果将自营产品排名提升,而将竞争对手的排挤到靠后位置。可借此实现对自营产品的优待,从而提升自身的竞争力。例如,亚马逊初期只为出版社提供销售纸质书的平台,随后在获取纸质书销售数据之后推出自营电子书业务,并专门针的给予优先推荐辅之以低价销售,这一行为不仅帮助亚马逊在短时间内获得了大量的市场的份额,也让其迅速建立起自己在该领域的竞争优势 ‎[8] 。

2.2.2. 限定交易

平台算法推荐中涉及到的限定交易主要是指互联网平台依靠其强势的市场地位,以不满足其条件就不给予在页面中推荐的机会,来逼迫商家妥协。在这其中包括了“二选一”行为,平台企业要求商户只能在其平台设立店铺,不得在竞争对手的平台上设立店铺。例如,美团被控诉利用排他性协议使得商家只能进驻其外卖平台,不得在其他外卖平台上再设立店铺。1谷歌也被控诉利用排他性协议以扩大其搜索领域的地位 ‎[9] 。

3. 规制互联网平台滥用个性化算法推荐的困境

3.1. 反垄断法的具体实施存在挑战

《反垄断法》的实施有两种模式,分别为公共实施和私人实施。公共实施(Public enforcement)是指通过反垄断执法机构对排除、限制竞争的行为给予规制。私人实施(private enforcement)是指私人市场参与者(经营者或消费者)通过发起诉讼的方式打击垄断行为的实施方式。

从公共实施机制来看,数字经济下个性化推荐算法具有技术性、隐蔽性等特征。对于平台算法推荐所涉及的垄断行为很难被查明和界定,执法机构也因此难以找到实质性的证据来提起诉讼;从私人实施机制来看,我国《反垄断法》第60条规定:经营者实施垄断行为,给他人造成损失的,依法承担民事责任。这奠定了我国《反垄断法》私人实施的制度基础。同时,《互联网信息服务算法推荐管理规定》第30条规定:任何组织和个人发现违反规定行为的,可以向有关部门投诉、举报。就私人实施机制来看,还需要考虑到普通消费者的举报条件。平台算法推荐涉及的用户通常为普通消费者。例如前文不同操作系统给予不同的推荐内容的例子中就反应出消费者很难意识到算法推荐所导致的一系列歧视问题的存在,即使偶然发现了此类问题,也无法搜集到相应的证据进行举报,因而无法及时维护自身的合法权益。

3.2. 现行立法内容与实际操作性有待完善

我国现行立法中,对于个性化算法推荐,目前只有一部《互联网信息服务算法推荐管理规定》专门的规章对其作出了规定,其他相关规定分散于各个法律文件中。其中涉及到的多种法律法规层级各异,规章在位阶上法律效力较低,整体缺乏体系性,显得薄弱且不完善。现有的法律规定无法应对个性化算法推荐在实际应用中存在的问题。尤其是对于其中涉及的反垄断问题而言,当前的法律规定显得十分捉襟见肘。

个性化算法推荐的相关法律规定存在体系上的薄弱,难免会出现法律适用困难、实际应用性不高、裁判标准不一等问题。在《互联网信息服务算法推荐管理规定》中,明确了算法推荐服务者的主体责任算法责任和构建平台问责体系,以及明确了算法推荐服务提供者必须遵守的信息服务规范。但是,其中关于算法责任的几条规定,不足以解决目前企业不当利用个性化推荐算法引发的问题。与此同时,我国《电子商务法》中对在认定违反上述规定所应承担的民事责任上也未曾充分考虑到算法侵权的特殊性,隐蔽性和动态性 ‎[10] 。一定程度上存在着实际操作困难的局限 ‎[11] 。

此外,有关个性化算法推荐的规定分布在各类法律规定中,当前在我国有权对个性化算法推荐的相关主体进行监管的机构众多,但没有明确对个性化算法推荐进行主管的机关。这也必然会导致无法形成监管的合力,用户在受到个性化算法推荐的侵害后不明白具体该向哪个部门进行举报,各部门在实际履职中,也会存在协调不佳等问题。

3.3. 用户退出权设置存在局限

首先,我国大多数利用个性化算法推荐技术的APP均在应用程序中提供了关闭个性化推荐的选项。在《互联网信息服务算法推荐管理规定》中也明确规定:算法推荐服务者应当向用户提供不针对其个人特征的选项,用户选择关闭算法推荐服务的,算法推荐服务提供者应当立即停止提供相关服务。但多数并非允许用户彻底、永久地退出个性化推荐,而且退出的路径十分繁琐复杂。用户在想要进行关闭时,路径十分的繁琐,同时关闭个性化推荐还需进一步对具体业务进行选择。与此同时,关闭个性化推荐服务也不意味着彻底关闭,用户在选择关闭个性化算法推荐后,平台很有可能只是减少了相关性,而没有彻底进行关闭。

其次,网站上的个性化算法推荐的用户退出机制仍需完善。美国联邦贸易委员会(FTC)所提倡的“不追踪”(Do Not Track)设置,是大多数搜索引擎中可以选择的一个设置,这项功能允许用户向网站发送不希望从一个网站被跟踪到另一个网站的请求,期望以开发者的自律来停止跟踪用户进行个性化算法推荐服务 ‎[12] 。

然而,个性化算法推荐服务的提供者与用户之间存在着信息不对等,用户无法确定是否真的彻底关闭了追踪,且两者在交易地位上也有着显著差别,这项“不追踪”的设置所带来的实际效果则更像是对处于弱势方的用户的提供的一份“安慰剂”。

4. 应对互联网平台滥用个性化算法推荐的法律策略

4.1. 构建算法问责体系

4.1.1. 明确主管机构

首先,个性化算法推荐与个人信息保护具有一定的相关性。根据我国《个人信息保护法》第60条规定:国家网信部门负责统筹协调个人信息保护工作和相关监督管理工作。国务院有关部门依照本法和有关法律法规的规定,在各自职责范围内负责个人信息保护和监督管理工作。考虑到我国目前的政府机构体系及其职能设置,由国家网信部门作为个性化算法推荐的主管机购应是较为合适之策。我国网信部门有较为专业的互联网算法治理人员,对个性化算法推荐的内部逻辑有着较为深刻的理解,能够判断算法存在的潜在风险以及揭示对用户造成损害的原因。其次,若情况涉及电商平台利用垄断地位实施滥用行为,一方面需要《反垄断法》及相关法律规范文件对具体滥用行为进行规制;另一方面,在明确了个性化算法推荐的主管后,反垄断执法机构也可与其进行配合,协调执法,有效发挥监管合力。

4.1.2. 设立专门机构

我国的现实情况需要设立专门的个性化算法推荐问责机构,例如“算法问责委员会”,用户在遭受一系列侵害时,可以找到专门的机构进行举报、申诉,并为主管机构决策提供一定的参考。例如美国《算法问责法案》提出的授权联邦贸易委员会(FTC)对存储、使用、分享个人信息的企业作出自动化决策及数据保护影响评估 ‎[13] 。

4.1.3. 促进公众参与与社会监督

消费者是市场经济活动的重要组成部分,在《反垄断法》中也占据相当位置。在现代互联网技术高度发展的现在,互联网平台的使用成为了我们生活不可或缺的一部分,消费者在使用过程中如若发现经营者的算法推荐存在异常行为,则可以及时向有关部门举报。例如美国联邦贸易委员会消费者保护局此前就为此设立了技术研究和调查办公室(Office of Technology Research and Investigation),其一项重要职能就是为消费者以及其他组织提供算法透明性等相关问题的指导 ‎[14] 。我国的互联网平台经济发展迅猛,但消费者的维权保护意识却有待提升,若能提高用户对个性化推荐算法的了解,当不法侵害发生时,也能及时识别并保护自己的合法权益。

4.2. 推动算法权力治理工具的建立

4.2.1. 确保算法的中立性

算法已经对数据运行的现实效果造成了实质影响,为确保算法的客观中立性,就需要开启“算法黑箱”,明晰算法定价机制。保持算法客观性和中立性需要从数据质量以及设计者伦理规范两方面进行规范。从数据层面来看,要保证数据来源、内容、处理可查,明确数据操作过程 ‎[15] ;从算法设计者层面来看,应当从根本上提高设计者的算法素质,必要时可以上升到法律予以规范。此外,还可以考虑由监管机关制定基础的定价算法直接植入到所有被监管的定价算法中,以保持算法规则的基本稳定。

4.2.2. 构建算法影响评估制度

伴随着算法自动决策介入到公私治理场景之中,算法影响评估制度作为人工智能时代盛行的一种重要治理技术正在逐渐兴起。算法影响评估是指由特定主体根据业内已确定的标准对算法自动化决策系统的构架、决策机制等内容进行全面评估,并以此确定该自动化系统对特定区域内的人群所产生的影响程度和风险等级,进而寻求减缓和消除负面影响和风险的应对方案和措施的一种算法治理方式。

鉴于以算法推荐为代表的算法自动化决策在我国商业领域的广泛运用所带来的反垄断风险等一系列问题,可以建立全周期的动态算法影响评估机制。在算法推荐系统投入平台使用之后,由相关领域的专业评估人员定期对运行中的推荐算法系统进行全面的系统评估,分析其存在的不利影响和风险。对于推荐算法的使用者而言,合理的算法影响评估制度能够有力回应算法场景多样化和算法治理精细化的现实要求,在算法的多元应用和精细化治理中寻求平衡。

虽然在《互联网信息服务算法推荐管理规定》中确立了对算法推荐的区分监管、分级分类的管理方法,但实施算法推荐服务备案管理制度的对象要求是具有舆论属性或者社会动员能力的主体,这也意味着互联网平台领域的推荐算法还未完全纳入管制范围内。

与此同时,建立算法影响评估报告强制披露机制,信息公开是公众参与的前提。目前的平台公司绝大多数情况下会基于所谓的商业秘密保护不对外公布其算法影响评估的结果,自愿披露、内部报告的原则此时也形同虚设。

4.3. 细化保障用户退出权的规定

个性化算法推荐中的涉及的用户退出权,应能够保证企业提供快捷、显著的个性化推荐关闭或退出的路径,且用户的退出方式应当与个性化算法推荐服务在开启使用时的方式同样简单;用户在选择退出或关闭个性化推荐时,须为永久性的关闭,且不是仅仅转换为降低了相关性的个性化算法推荐,除非用户再次开启个性化推荐功能;在关闭或退出个性化推荐后个性化算法推荐服务提供商应立即停止收集用户的行为数据,并将之前收集的用户数据进行匿名化脱敏处理并在合理期间内删除用户数据和信息的备份。

但是,考虑到互联网平台企业的商业运营模式和产业的持续稳定健康发展,应对用户的个性化算法推荐上退出权也加以一定程度的限制,例如域外有学者建议采用“隐私付费模式”的模式 ‎[16] 。国内也有学者认为,目前采取的用户利用个人数据与信息换取企业提供免费服务的商业模式,可能导致企业对用户数据和信息的过度收集。因此建议引入“付费购买安宁”的选项加以矫正,形成“普遍免费 + 个别付费”的双重模式 ‎[17] 。使得用户可以在享受法律赋予的个人信息保护的基础上,付出一定费用用以购买更优质、更注重维护用户隐私的个人增值服务。此外,可在立法上明确规定用户有权拒绝接受基于其个人信息与信息推送的商业广告,但应容忍非基于用户信息、个人数据的无特定目标群体的一般性广告。

5. 总结

目前,在互联网平台领域个性化推荐算法滥用与反垄断监管缺失带来的乱象频发,需要通过不断完善法治和健全监管以实现公平竞争自由。个性化算法推荐服务不仅可以为用户提供个性化的网络购物推荐体验,也可以成为互联网平台企业扩张市场力量和攫取超额利润的工具。个性化推荐算法的反垄断规制是互联网平台经济领域法治建设的重要部分,在规制企业利用个性化算法推荐实施差别待遇、限定交易的同时,应结合我国新时代经济发展趋势,尽快制定完善的法律规定,以期个性化算法推荐服务能够更好地为用户、企业、社会与国家服务。

NOTES

1参见国家市场监督管理总局行政处罚决定书国市监处罚〔2021〕74号。

参考文献

[1] 张晨颖. 公共性视角下的互联网平台反垄断规制[J]. 法学研究, 2021, 43(4): 149-170.
[2] 北京日报客户端. 平台“个性化推荐”你关了吗?算法推荐告别野蛮生长[EB/OL]. https://baijiahao.baidu.com/s?id=1727913181058500438&wfr=spider&for=pc, 2022-03-21.
[3] 王晓晔. 论相关市场界定在滥用行为案件中的地位和作用[J]. 现代法学, 2018, 40(3): 57-69.
[4] 付楚楚. “大数据杀熟”行为的消费者权益保护困境[J]. 南方论刊, 2020(10): 56-59.
[5] 喻玲. 算法消费者价格歧视反垄断法属性的误读及辨明[J]. 法学, 2020(9): 83-99.
[6] 朱建海. “大数据杀熟”反垄断规制的理论证成与路径优化[J]. 西北民族大学学报, 2021(5): 112-121.
[7] 焦海涛. 数字市场中的行为歧视及其法律规制[J]. 中国市场监督研究, 2021(3): 11-15.
[8] 陈兵, 徐文. 规制平台经济领域滥用市场支配地位的法理与实践[J]. 学习与实践, 2021(2): 87-96.
[9] 新华社客户端. 美司法部起诉谷歌非法垄断数字广告市场[EB/OL]. https://baijiahao.baidu.com/s?id=1755993168804216353&wfr=spider&for=pc, 2023-01-25.
[10] 邹开亮, 刘佳明. 大数据“杀熟”的法律规制困境与出路——仅从《消费者权益保护法》的角度考量[J]. 价格理论与实践, 2018(8): 47-50.
[11] 张凌寒. 《电子商务法》中的算法责任及其完善[J]. 北京航空航天大学学报(社会科学版), 2018, 31(6): 16-21.
[12] Zhanghuicuc. 隐私之争: 关于Do Not Track你所应该知道的[EB/OL]. https://www.guokr.com/article/396923/, 2012-11-29.
[13] 郑友德. FTC: 人工智能和算法合规应用指引[EB/OL]. https://www.sohu.com/a/538223338_221481, 2022-04-15.
[14] 王健, 吴宗泽. 自主学习型算法共谋的事前预防与监管[J]. 深圳社会科学, 2020(2): 147-158+160.
[15] 刘友华. 算法偏见及其规制路径研究[J]. 法学杂志, 2019, 40(6): 55-66.
[16] Elvy, S.A. (2017) Paying for Privacy and the Personal Data Economy. Columbia Law Review, 6, 1369-1455.
[17] 张新宝. “普遍免费 + 个别付费”: 个人信息保护的一个新思维[J]. 比较法研究, 2018(5): 1-15.