算法个性化定价的法律规制
Legal Regulation of Personalized Pricing Algorithm
摘要: 通过解构个性化定价的运作机制,发现个性化定价的本质是对个人信息的违规处理以及对定价算法的滥用。基于此,《个人信息保护法》第二十四条第一款提出了形式控制与实质控制两个规制手段,形式控制要求对个人信息的强保护和对定价算法的强监管。但并非所有的个性化定价都具有违法性,因此该条款还提出了结果合理的实质控制标准,以弥补形式控制和“一刀切”监管方式的不足,平衡互联网平台与消费者之间的利益。近年来,虽然相关文件的出台细化了实质控制的认定标准,但合理作为法律术语中可解释空间较为宽泛的描述性概念,事实上仍具有较大的不确定性,需要在立法与司法的互动过程中进一步廓清个性化定价结果合理的法律含义。
Abstract: By deconstructing the operation mechanism of personalized pricing, it is found that the essence of personalized pricing is the illegal treatment of personal information and the abuse of pricing algorithm. Based on this, the first paragraph of Article 24 of the Personal Information Protection Law puts forward two regulatory means: formal control and substantive control. Formal control requires strong protection of personal information and strong supervision of pricing algorithms. However, not all personalized pricing is illegal, so this clause also puts forward the substantive control standard with reasonable results to make up for the deficiency of formal control and “one-size-fits-all” supervision and balance the interests between the Internet platform and consumers. In recent years, although the relevant documents have been issued to refine the identification standard of substantive control, rationality, as a descriptive concept with a wide interpretable space in legal terms, still has great uncertainty in fact, and it is necessary to further clarify the legal meaning of the rationality of personalized pricing results in the process of interaction between legislation and justice.
文章引用:张凌菲. 算法个性化定价的法律规制[J]. 法学, 2023, 11(1): 39-48. https://doi.org/10.12677/OJLS.2023.111006

1. 算法个性化定价的本质分析

数字经济时代,数据挖掘算法为经营者获取用户信息提供了更为广泛以及便利的渠道,也为进一步追踪用户的交易记录、消费偏好等重要商业信息提供了足够的数据支撑,伴随着个人数据的深度串联,用户画像清晰地跃然于纸上。基于此,互联网平台通过引入智能算法,精准、快速地捕捉用户的消费需求,继而设置个性化定价。所谓个性化定价,是指企业通过收集、清洗、处理和分析消费者的消费习惯、消费能力等个人信息对消费者画像,预测消费者最高保留价格,并以此就同一商品向条件相同的消费者设定高低不同的价格。 [1] 定价算法的出现将企业从海量的数据分析中解救出来,提升了商品定价的效率。

一些研究中也称个性化定价为算法价格歧视。价格歧视在经济学上是一个中性词汇,指企业对具有相同生产边际成本的商品或服务针对两个或两个以上的消费者收取不同价格的行为。 [2] 个性化定价则更接近于一级价格歧视,能够使每一单位产品都按照消费者所愿意支付的最高价格出售。过去,经营者为实现一级价格歧视,需要与消费者反复沟通,最终才能以双方满意的价格达成交易。如今,大数据与智能算法的结合使得一级价格歧视具备了实现的可能性,定价算法可以对每个消费者的支付意愿和支付能力进行精准评估和预测,“千人千价”已成为数字平台企业通行的商业策略。

新技术的发展与运用本身存在着一定的风险,互联网平台在逐利本性的驱使下,开始利用算法攫取消费者剩余价值,直到2018年3月,这种隐秘的机制被媒体以“大数据杀熟”之名曝光后,才逐渐进入公众视野,引发了消费者的广泛关注。而猜忌一旦开始形成,“大数据杀熟”仿佛成了数字经济发展的必然结果,公众的讨伐声此起彼伏。近年来,多家互联网平台均被爆出疑似存在“杀熟”的现象,涵盖在线差旅、网络购物、交通出行等各个领域,比如:预定酒店,在时间和地点均相同的情况下,会员的等级越高显示的价格越贵;在外卖平台上点餐,会员的配送费相较于普通用户来说更高;在起止点一致的情况下,老用户呼叫网约车的费用高于新用户,且IOS系统的手机与Android系统手机显示的费用也不同。

从个性化定价,到大数据杀熟,再到算法价格歧视,主观色彩愈来愈浓烈的称呼转变无疑加剧了消费者与经营者之间的对立情绪。价格歧视体现出消费者感知到其公平交易权被侵害,大数据杀熟则与熟人社会行为规则相违背。 [3] 由此,使用算法进行个性化定价的经营者便背负上“歧视”“杀熟”“垄断”等污名。但价格差异并非伴随着数字技术而出现的新问题,为什么在数字时代,人们对它的抵触情绪如此高涨,价格差异是否在冠上新技术之名后就需被完全禁止?答案是否定的,正如上文所述,经济学意义上的价格歧视并非贬义词,且我国目前还未出现证实“大数据杀熟”存在的案例。因此,为实现对新时代下价格差异现象本质的中立探讨,本文选用算法个性化定价一词来进行论述。

2. 算法个性化定价的运作机制

经营者与消费者之间始终存在信息不对称的情况,这也是各国法律给予弱势消费者特殊保护的原因所在,大数据背景下算法技术的出现进一步加剧了这种现象,且由于其本身技术性强以及受到排他性商业政策的保护,算法被形象地比喻为“黑箱”,用户完全不清楚其内部的运算规则。算法的这种特性加剧了消费者对价格的敏感性,因此,有必要对算法个性化定价的运作机制作出解剖,在每一个步骤中明晰可能会产生的侵权效果,才能在规制层面更好地“对症下药”。

2.1. 信息采集:侵害消费者个人信息权益

个性化定价可能会侵害消费者的个人信息权益。消费者是算法个性化定价结果的直接承受者,其与互联网平台的关系实质上也是信息处理者与个人之间的关系。从大数据价格歧视的运行与实施模式来看,对消费者个人数据的收集是互联网平台进行价格歧视的前提条件,其个性化定价越精确,所需收集和分析的个人数据也就越庞杂。 [4] 信息收集的主要方式有两种,一种是用户按照标准的格式自行上传个人信息。在实践中具体表现为互联网平台通过制定相关隐私条款来履行告知义务,所谓隐私条款是指网络运营者对其所开展的收集、保存、使用、共享、转让等个人信息处理行为的说明。 [5] 但隐私条款并非规范网络运营者的主要途径,也并非保护用户个人隐私的重要保障,因为用户往往面临着不接受即不可获得服务的困境。有学者更是指出:部分隐私条款成为了“引诱”网民“主动”提供个人信息的“诱饵”。 [6]

另一种信息收集方式则是互联网平台自行采集用户信息。其掌握的用户信息越多,越能深入了解用户需求以挖掘巨大的经济价值和社会价值。为了精准刻画出“用户画像”,互联网平台往往超过消费者允许的范围收集个人信息,比如位置信息、个人上网记录、网络身份标识信息、通讯录等是帮助互联网平台掌握用户习惯的重要信息,被大量APP收集。 [7] 这种超越限度的数据处理明显违反了《个人信息保护法》中的“最少必要原则”1。数据分析不仅仅是辅助企业作出决策的手段,也可作为重要的要素参与社会生产过程。企业为了提升自身的核心竞争力,选择违背“隐私条款”中对于“禁止数据共享”的约定,交换用户的个人信息,甚至还发展出个人信息贩卖的灰色地带,对消费者个人的隐私权利甚至社会安全都造成了极大的伤害。

2.2. 用户画像:妨害消费者行使自主权

个性化定价可能会侵害了消费者的自主权。消费者的自主权,是指消费者依据自我决定的消费目的和自我判断的商品价值作出理性抉择的自由。 [8] 实施算法个性化定价的第二步,是将抽象的消费者信息有目的地转化为可供分类的数据,从而实现用户画像。

互联网平台根据收集到的海量信息为消费者打上不同的标签,例如通过分析消费活跃度,将消费者分为新客户、潜在客户、忠实客户、流失客户等。标签化信息足以令互联网平台实现对消费者的初步画像,方便其分析预测消费者的需求偏好,并在此基础上进行个性化商品推送或屏蔽,以创造交易机会。个性化商品推送不仅能迎合消费者的偏好,更直接关联着经营者的利益,它能决定商品的搜索排名以及展示位置,比如,高收入、高消费人群在搜索商品时,最先出现的总是高端且昂贵的商品,而价格敏感者的首页,往往是打折促销的产品。

人们能获取到的信息总是有限的,在商品特定推送阶段,算法推荐机制会为每一位消费者分发量身定制的商品信息,引导消费者走进算法推送形成的“信息茧房”中,一定程度上也间接限制了消费者选择交易的权利,最终使得处于信息弱势一方的消费者无法作出真正的自主决策,实现另一种意义上的价格差异。不仅如此,随着用户画像的精确化,算法甚至能分析出消费者的支付意愿以及价格承受度,方便企业按照营销需求采取不同的定价策略,让每一位消费者都在所能承受的最高价格上进行交易。

2.3. 个性化定价:加剧消费者的不信任

个性化定价可能会加剧消费者对经营者和平台的不信任。若隐秘的用户画像和信息茧房使消费者感受到的是“侵入感”,那么个性化定价带来的是“不公感”。个性化定价的最后一步,是在用户画像的基础上实施价格差异,使不同消费者针对相同的商品或服务享受到不同程度的优惠。

常言道“无奸不商”,消费者对于精明的商家总保持着一种不信任感。但社会中仍存在被接受的价格差异,例如消费者向来对新客优惠、学生折扣以及机票价格波动表示包容,这是因为上述例子具有被社会习惯所认可和接受的实质正当理由,真正引发消费者反感的,是不以供求关系为基础、极为隐秘的定价机制,产生这种现象的原因可能有以下几方面:一是用来制定算法的训练数据与结果之间不具有关联性,个性化定价算法的制定和实施离不开网络环境,更离不开作为基础的数据,而数据越全面,得出的结果就越精确,所以在训练算法的时候可能会引入一些无关数据,导致最终的算法结果出现偏差;二是算法可能会延续设计者的偏见,算法还未达到完全自主性,其设计与运行还有赖于人为控制,设计者决定着算法运行的目标以及训练数据的采集和处理,其中基于设计者的偏见有可能选择加入或放弃一些影响因素、增加或减少因素所占的比重,使得算法承继该偏见,并在一轮一轮的计算中放大偏见,导致出现歧视;三是算法控制者可能滥用算法权力,算法程序可以在定价策略的不断迭代升级中实现企业利润的最大化。大数据杀熟正是在算法量化分析数据的基础上,滥用此种技术而衍生的现象,可以说,其本质就是算法权力的滥用。 [9]

根据对个性化定价运作机制的梳理,不难看出个性化定价实质是以消费者的个人信息为载体,以分析算法为工具,以实现获取用户信息成本最小化和互联网平台利润最大化为目标的营销策略。不正当的价格差异在实践中饱受诟病,现有研究中大多以经济法为视角,提出对“差别待遇”的相对人作出目的性扩张解释,将终端消费者纳入保护范围 [10],但此种做法可能破坏《反垄断法》的体系性。个性化定价具有以下两个属性:首先,能否实现个性化定价依赖于互联网平台对消费者个人信息的收集以及对消费者支付意愿和消费能力的把握;其次,个性化定价体现出的法律关系是经营者与终端消费者之间的关系,而非经营者与经营者之间的关系。 [2] 故个性化定价的本质仍是对消费者个人信息的过度收集以及定价算法的滥用,因此,不妨转换以往过度关注以《反垄断法》进行矫正的视角,从个人信息保护和算法规制角度出发,探索出更加有效的规制个性化定价的路径。

3. 个性化定价的形式控制:过程透明

《个人信息保护法》第二十四条第一款从法律层面对个性化定价提出了更明确的规范要求:个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正,不得对个人在交易价格等交易条件上实行不合理的差别待遇。个性化定价正是通过分析消费者信息,利用特征分析实现区分定价的结果,符合自动化决策的定义2。围绕该条款进行解释,可知上述条款分别从形式和实质两个方面为规范个性化定价提供了更充分的法律依据,形式上需保证作出自动化决策的透明度,实质上需保证决策结果公平、公正,重点强调不得对交易价格实行不合理的差别待遇,可谓是回应了社会重大关切的现实之需。

3.1. 严保护:个人信息处理规则透明

算法个性化定价引致的消费者不公平感可分为两类:分配不公平和程序不公平。 [1] 传统意义上的公平定价是消费者在真空状态下的独立判断,在信息不发达的年代,消费者就像处于一个个独立的、封锁的空间,难以知晓他人的购买价格。而在信息时代,想知道他人的成交价绝非难事,而消费者以他人更低的成交价为参考发现自己支付的对价更高时,主观上便会认为自己受到了分配不公的对待。而程序不公的主观感受来自于算法的黑箱特性,消费者无法了解自己是否被个性化定价,也不清楚个性化定价的机制,甚至没有办法选择退出个性化定价,不公感油然而生。

3.1.1. 公开透明原则

互联网平台基于雄厚的经济与技术实力,掌握着海量用户信息,一定程度上兼具信息控制者与信息处理者两个身份,而个人信息的获取、赋值决定着算法决策结果,由于互联网平台与个人在实力、地位方面相差悬殊,为强化个人的主体地位,《个人信息保护法》第七条规定了公开透明原则3,旨在促进个人对信息处理活动的知情与理解。

公开透明原则要求处理者应当公开个人信息处理规则,明示处理的目的、方式和范围。或许在“以信息换取服务”的模式下,个人无法拒绝互联网平台处理个人信息,但在公开透明原则的保障下,个人有权了解个性化定价中信息被收集的情况以及个性化定价的规则,并有权对错误信息提出补充、更正,对不合理的规则提出异议,从而避免个性化定价算法产出不合理的处理结果。

3.1.2. 处理者的告知义务

公开透明原则有助于平衡互联网平台与消费者之间的信息不对称,但其作为处理信息的原则性规定,要求过于抽象化,缺乏具体的指引。因此,在个人信息处理规则章节明确规定了处理者负有告知义务,可视为实现公开透明原则的具体方法。

处理者积极履行告知义务,不仅是消费者行使知情同意权的基础,也是判断处理行为是否合法的标准之一。互联网平台在利用个性化定价算法之前,应当以显著方式、清晰易懂的语言真实、准确、完整地向消费者告知其信息将如何被收集和处理,并提供处理者信息以及提出异议的程序,如此,消费者才能行使查询权和质询权,保证个性化定价过程的充分知情,消解对程序不公的感知。

互联网平台告知义务的履行方式主要是通过与消费者签订服务协议,但只有在满足明确、具体和严格限制敏感个人信息三个要件的情况下,才可认定平台充分履行了告知义务。 [11] 首先,服务协议不能仅以勾选表示同意的方式呈现,更不能采取不同意即不可进入的方式迫使消费者同意服务协议。为保证服务协议内容的可获得性,互联网平台应采取特殊手段,例如制作目录、披露实质性内容、作出重要标识和利用可视化手段等方法使用户快速理解条款内容。在表达上应减少使用晦涩难懂的专业术语,避免使用模糊性表达,必要时提供名词解释,实现明确履行告知义务的目的;其次,互联网平台不仅要全面披露与消费者信息处理活动相关的重要事项,还要贯穿于处理活动的各个环节。个性化定价的运作机制是一个持续的过程,互联网平台告知义务的具体的内容应根据处理活动的动态变化而不断更新,不能以服务协议中的概括同意作为处理过程的合法性基础,在对消费者信息的使用目的、范围和规则发生变化的情况下,应当及时告知消费者;最后,严格界定处理敏感个人信息的告知标准,平台在处理此类信息时必须具有特定的目的和充分的必要性,非必要的数据确保不收集,比如提供保险服务的平台,不能无正当理由收集消费者的医疗数据;提供网约车服务的平台,不能对消费者的行踪轨迹进行分析等。互联网平台收集、使用和处理敏感个人信息,不仅需要告知行为的必要性以及对个人权益的影响,还要取得消费者的单独同意,并采取严格的保护措施。

3.2. 强监管:个人信息处理行为透明

《个人信息保护法》对处理个人信息的规则作出了严格规定,有利于强化互联网平台的合规意识,但仅靠自觉履行义务远不能达到有效规制不合理个性化定价行为的目的,还需要依靠行政力量加强监管力度。

3.2.1. 事前的影响评估机制

《个人信息保护法》将平台自动化决策的治理时点前移,该法第五十五条4规定了应当进行事前影响评估机制的情形,其中便包括处理敏感个人信息和利用个人信息进行自动化决策,成为了规制个性化定价的明确指引。此外,该法还规定了影响评估的应当包括的内容,即处理目的、处理方式等是否合法、正当、必要;对个人权益的影响即安全风险;保护措施是否合法、有效并与风险程度相适应。互联网平台是否公开评估内容以及公开程度完全取决于其本身,比如面对大数据杀熟的声讨,美团曾公开解释外卖配送费的计算规则,天猫官方微博发文声明产生价格差异的主要原因在于新人优惠等。这些澄清虽取得了一定的社会效果,但具有偶发性,因此需鼓励互联网平台对事前影响评估作适当公开,赢取消费者的信任。《个人信息保护法》还规定了评估报告和处理情况记录保存的时间等因素,使事前影响评估机制具备了可操作性,将保存时间设置为三年,是为了与我国诉讼时效相适应,便于纠纷发生时的取证和获得社会的监督。

3.2.2. 事中的算法审计制度

《个人信息保护法》第五十四条5确立了算法审计制度,将算法本身列为了监管对象,互联网平台使用个性化定价算法,应当定期对其个人信息处理行为是否遵守法律、行政法规的情况进行合规审计,大大提升了对瑕疵算法的治理效果。不仅如此,《个人信息保护法》还制定了“守门人”条款,要求大型平台承担起个人信息保护的特殊义务 [12]:建立合规制度体系、成立独立的监督机构、制定平台规则并约束平台内产品或服务提供者、定期发布责任报告接受监督。所谓大型平台是指提供重要互联网平台服务、用户数量巨大、业务类型复杂的个人信息处理者。实践中,大型平台更有条件利用其信息优势实施不合理的差异定价,构建市场准入壁垒,不正当攫取消费者剩余。因此,强化这类平台的保护义务更有利于建立公平和开放的市场竞争秩序,使终端消费者在数字经济的发展中受益。

3.3.3. 事后的责任承担方式

在发生个性化定价引发的纠纷时,互联网平台是否积极履行了上述义务是法院审查的重点,这不仅关系到互联网平台在进行个性化定价时是否存在违法行为而据此承担巨额罚款,还关系到其是否应为此承担侵权责任,一定程度上保障了《个人信息保护法》第二十四条中形式控制的具体实施。

履行个人信息保护职责的部门发现互联网平台的个人信息处理活动存在较大风险的,可以约谈法定代表人或主要负责人,或要求其委托专业机构进行合规审计。无论从给监管的角度还是合规的角度,惩罚与赔偿都是最为核心的部分。法律责任部分规定,对于违规处理个人信息或者未按规定履行个人信息保护义务,且情节严重的,可并处五千万元以下或者上一年度营业额百分之五以下的罚款,该惩处力度超过了以严格著称的欧盟《通用数据保护条例》,对互联网平台实施个性化定价的行为能起到较好的震慑作用。

个性化定价中,互联网平台不仅掌握着定价算法的开发和修改权利,也掌握着消费者的信息库,在实施个性化定价的过程中,互联网平台往往会滥用自身优势地位掩盖不合理的定价行为,使得消费者在维权时面临着严重的举证难题。消费者难以获得互联网平台实施的全部差异定价,也很难举证自己受到了针对个人特征的差异定价。而平台在搜集和举证能力上处于优势地位,在数据庞大与算法复杂的情况下,其对于哪一部分证据存在矛盾争议更为清楚。 [13] 鉴于此,《个人信息保护法》规定了互联网平台实施侵权行为采取过错推定责任,一定程度上降低了消费者的维权门槛。

虽然过错推定的规则原则一定程度上能提高诉讼效率,但消费者遭受的直接损失较小,在考虑到高昂的维权成本时,大部分消费者往往选择放弃维权,正因如此,目前尚可查询到的相关案例仅有四例6。针对消费者怠于维权的情况,《个人信息保护法》第七十条7明确了针对个人信息保护的公益诉讼制度,诉讼主体不仅包括检察院、法律规定的消费者组织,还包括由国家网信部门确定的组织。公益诉讼具有延伸性的制度张力,可以调动诸多手段,协同多个部门,对个人信息的保护更具专业性、权威性和便利性,有助于克服实践中个人起诉存在的举证困难以及成本过高等问题。 [14] 但对比消费者保护和环境生态保护公益诉讼制度,个人信息保护公益诉讼的规定较为简略,对于其主体范围、适用条件及相关法律责任等问题还需要进行研究和阐释。 [15]

4. 个性化定价的实质控制:结果合理

对于个性化定价是否仅局限于以形式控制为主的规制手段存在疑问,但从《个人信息保护法》第二十四条第一款的解释论来看也很难得出这一结论,从条文的表述来看,本条款不仅要求互联网平台保证决策的透明度,还需保证自动化决策结果公平、公正。从立法的背景分析,严厉监管个性化定价虽有强烈的舆论基础,使得立法者在法律条文中将交易价格单独列出加以强调,但禁止的并非一切差别化的交易条件,而仅针对不合理的差别待遇,这也表明对于个性化定价的规制,不仅具备形式控制,确保结果的公平公正才是规制的实质所在。

4.1. 实质控制的正当性证成

目前,国内学界侧重于从提高算法透明度的角度回应公众对于叫停“大数据杀熟”“算法价格歧视”的需求,但采用一刀切的管制方式存在诸多缺陷,而消费者并不关注价格的形成机制,更不会仔细阅读知情同意条款,加之排他性商业政策使得形式控制的强制披露有失灵的风险,因此,对个性化定价设置实质性控制有其正当性和必要性。

4.1.1. 一刀切监管的缺陷

目前,规制个性化定价的主要依据包括《消费者权益保护法》《电子商务法》《反垄断法》《价格法》《个人信息保护法》《互联网信息服务算法推荐管理规定》等,这些法律法规虽然都明确了监管个性化定价的前提条件,即“无正当理由”、“不得滥用”、“禁止不公平的交易条件”、“不得有不正当的价格行为”和“保证结果公平、公正”等,然而由于此类限制条件过于抽象和模糊,以及监管能力和成本的约束,实践中,监管者更可能偏向于采取“一刀切”的处理方式,从而忽略对个性化定价合理性的分析。

这种“一刀切”的规制可能在短时间内对不合理的个性化定价行为产生威慑作用,但长期以往,可能会打击互联网平台开发新技术的积极性,不利于数字经济的发展。对价格歧视行为的违法定性要铺展在对具体行为的经济效果的分析上。 [3] 理论界对禁止与处罚个性化定价的正当性证成主要集中于“价格歧视不具备正当性”以及“消费者总体福利的缺失”两方面,但此类研究一方面仅以需求波动更快的领域为对象,将其不公正的结论类比强加到所有场景之下,以偏概全认定个性化定价不具备正当性;另一方面以消费者总体福利受损来分析产生的经济效果 [16],与基于生产者福利、消费者福利、社会总体福利三方的分析框架不相适应,得出的结论难以令人信服。

统一定价看似公平,实则对于不同的消费者群体带来了不同的负担。对个性化定价算法的规制采取“一刀切”的方式并非明智之举,因此,需要从实质控制出发,探究结果合理要求的边界,以期保护技术创新,促进数字经济繁荣发展。

4.1.2. 对形式控制的补充

中国消费者协会发布的2022年消费维权主题调查结果显示,多数消费者认为需要警惕消费信息不透明等阻碍公平交易的因素。 [17] 消费者对于差异价格的不信任主要来源于定价机制的非公开透明,形式控制要求互联网平台提高定价算法的透明度,一定程度上能消解消费者的抵触情绪,但是对于达到了形式控制的要求但结果仍不合理的现象,仍需要实质控制作为补充。

首先,对于算法的建构以及对分析数据的选取都不可能达到完全客观的理想状态,尽管设计者已经竭尽所能避免数据样本以及算法标准存在偏差,但也可能产生不合理的个性化定价结果。其次,由于受现实环境中信息分布不均匀、个体动机和目标制约、搜索算法混淆、有限样本量和元认知监控能力不足等因素的影响,个体无法采集到完全随机的样本,样本中固有的偏差进一步导致了个体的决策偏差。 [18] 算法设计者获取到的观测样本不一定是完整的,而设计者会有意识或无意识将这些样本当作具有代表性的整体进行分析,而要求设计者采集完整无偏见的分析样本根本不现实,最终也可能会因为非真实和非完整的样本导致结果不合理。最后,算法可能会反映出市场对某一主体存在结构性的负面偏见,并将其放大,因为算法并不会像法律一样严谨地分析因果关系,对个性化定价结果产生实质影响的因素之间或许存在因果关系,或许仅仅是偶然的关联关系,因此,在算法分析样本、数值、标准等均合理时,也可能产出错误的、不合理的结果。

个性化定价算法将消费者身份类型化以及个体特征化的过程已经暗含了结果不合理的风险,即使个性化定价算法已经达到形式控制的标准,也会不可避免地出现结果不合理的情形,此时可引入实质控制作为对形式控制的补充,既能为受到侵害的消费者提供救济,也能避免互联网平台承受更重的责任负担。

4.1.3. 平衡双方间的利益

在我国实践中,目前尚未出现仅因“大数据杀熟”或“算法价格歧视”而作出行政处罚,也尚未出现法院认定构成差别待遇违法行为的司法判例,这是因为影响价格波动的因素有很多,例如供求关系,处于打车高峰期或者起终点偏远的网约车收费较高;交易时间或活动规则也可能会对价格产生影响,比如双十一活动中零点之前和零点之后的价格往往因活动力度不同而存在较大差别,秒杀价与日常价也天差地别;此外,就平台经济而言,消费者信用状况、所处交易环节、信用状况、是否存在合作关系等因素都可能被认定为差异定价的正当理由,这是互联网平台行使自由定价权的必然结果,也是市场经济的核心特征。

对于消费者来说,其本能地排斥个性化定价是基于自己的主观判断,亚马逊的动态价格经济实验表明消费者并不喜欢动态的个性化价格,即使部分消费者因此获得了更低的价格。很矛盾的是,消费者对互联网平台使用个性化定价算法抱有鲜明反对态度的同时,也在接受特定情境下的差异定价福利。而正如前所述,统一定价带来的仅是形式公平而非实质公平,会讨价还价的人本该得到更低的价格。个性化定价的本质是根据消费者资源占有程度对产品价格做出的再调整,看似不公平,实际上减少了资源的不平等。 [19] 但不可忽略的前提是,结果公平、公正的个性化定价结果才是有益的,只是这种标准指的是实质意义上而不是形式意义上的公平与公正。

4.2. 实质控制的评价标准

上文已经明确了实质控制的正当性,但《个人信息保护法》第二十四条的规定太过模糊,在实践中难以有效适用,故有必要对结果公平、公正的评价标准作出积极探索,更有效地发挥法律的行为指引作用。

《平台经济反垄断指南》第十七条采用了列举加兜底的标准,明确了实施差别待遇的正当理由。《深圳经济特区数据条例》第六十九条也延续了相同的标准,使用了原则加例外的规定。前述正当理由具体包括:第一,根据交易相对人的实际需求且符合正当的交易习惯和行业惯例实行不同交易条件。常见的二级价格歧视和三级价格歧视被规制的风险相对较低,例如根据供求关系影响的高峰期网约车费用升高,符合正当交易习惯的批发价、学生价以及秒杀价,契合行业惯例的飞机票价格随时间变化呈现出的波动性等。而针对个人的差异定价,只要互联网平台能列举出合理的抗辩理由,也可被认为符合该项标准。第二,针对新用户在合理期限内开展优惠活动。新人可享折扣是现实生活中平台和商家用来吸引流量的常见手段,在平台明确新用户的范围与折扣期间的前提下,该差异定价引发纠纷的可能性不大。第三,基于公平、合理、非歧视规则实施随机性交易。可从以下几个方面对随即性交易是否达标进行考量:1) 是否将基于实际或根据算法推测出的消费者个人身份、支付能力、消费习惯、消费偏好等因素作为不合理的限制消费者参与交易、参与何种交易、获得何种附加利益或优惠的考量因素;2) 针对平台内所有消费者或特定群体开展的随机交易,每个消费者获得的交易机会是否均等。第四,法律、法规规定的其他情形。此项作为兜底条款可为未能预料到的实质控制标准预留法律规制的空间。

此外,《上海市网络交易平台网络营销活动算法应用指引(试行)》第九条增加了一项正当理由,即基于保障弱势群体利益和安全而作出的限制或差异性对待,在实质控制标准的探索上又往前走了一步。该指引还提出了可能影响算法结果公平性的因素:1) 参数设置是否科学、合理。网络交易平台经营者应用算法时,应根据行业类型、业务场景等实际情况,科学、合理地设置相关参数条件和权重。不应将浏览次数、支付意愿、支付能力、依赖程度、交易频次、交易时使用的终端设备品牌等作为与消费者进行交易的条件参数;2) 消费者画像是否公正、客观、真实。确保消费者画像依据来源合法,尊重消费者人格尊严,避免使用有违社会公德、歧视性、偏见性用户标签,发现消费者画像存在错误的,有必要及时进行修改;3) 决策规则设计是否科学、合理。应结合行业类型、业务场景等实际情况,科学、合理地设计决策规则。

5. 结语

随着大数据时代算法技术的普及深化,人们的生活变得更加便捷和高效,为了享受技术红利,消费者在不知不觉间交出了个人信息作为服务的对价,互联网平台掌握这些数据后,通过引入智能算法分析消费者的消费习惯和支付能力,进而对每个消费者的支付意愿进行精准评估和预测,以实施个性化定价,尽可能促成交易。但算法自身的“黑箱”性质使得消费者的信任被逐渐透支,从“不信任”的基点出发,消费者选择性地坚持认为自己是受害的一方,从而屏蔽平台的澄清,平台则被迫陷入一种难以自证清白的境地。对价格差异的过分关注,不仅不利于互联网平台与消费者之间信任关系的维护,也不利于更高质量、更有效率、更加公平和更可持续经济目标的实现。因此,需要正确认识个性化定价,并以此为基础探究其法律规制路径,以期重建消费者与经营者之间的信任关系。

基于互联网平台“信息采集–用户画像–个性化定价”的运作机制,可将个性化定价行为定性为对个人信息的违规处理和对定价算法的滥用。而《个人信息保护法》第二十四条第一款从法律层面对当前利用个人信息进行个性化定价的行为提出了更明确的规范要求,并分别从形式和实质两个方面为规范个性化定价提供了更充分的法律依据,形式上需提升个人信息处理规则和处理行为的透明度,实质上需保证决策结果公平、公正。但该条款并非禁止一切差别化的交易条件,重点强调的是不得对交易价格实行不合理的差别待遇,随着相关法律法规的出台,个性化定价结果合理的标准得到了逐步细化,但仍具有不确定性。鉴于此,仍应进一步廓清结果合理的法律含义,使对个性化定价行为的规制标准更具有可操作性,以期重建互联网平台与消费者之间的信任关系,促进数字经济的健康发展。

NOTES

1《个人信息保护法》中关于最小必要原则的规定主要体现在以下条款中:第五条,处理个人信息应当遵循合法、正当、必要和诚信原则,不得通过误导、欺诈、胁迫等方式处理个人信息。第六条,处理个人信息应当具有明确、合理的目的,并应当与处理目的直接相关,采取对个人权益影响最小的方式。收集个人信息,应当限于实现处理目的的最小范围,不得过度收集个人信息。第十九条,个人信息保存期限应当为实现处理目的所必要的最短的时间,除非法律、行政法规另有规定。

2《个人信息保护法》第七十三条对自动化决策作出了如下定义:自动化决策,是指通过计算机程序自动分析、评估个人的行为习惯、兴趣爱好或者经济、健康、信用状况等,并进行决策的活动。

3《个人信息保护法》第七条:处理个人信息应当遵循公开、透明原则,公开个人信息处理规则,明示处理的目的、方式和范围。

4《个人信息保护法》第五十五条:有下列情形之一的,个人信息处理者应当事前进行个人信息保护影响评估,并对处理情况进行记录:(一) 处理敏感个人信息;(二) 利用个人信息进行自动化决策;(三) 委托处理个人信息、向其他个人信息处理者提供个人信息、公开个人信息;(四) 向境外提供个人信息;(五) 其他对个人权益有重大影响的个人信息处理活动。

5《个人信息保护法》第五十四条:个人信息处理者应当定期对其处理个人信息遵守法律、行政法规的情况进行合规审计。

6以“大数据杀熟”为关键词在裁判文书网检索,共检索到四篇判决,分别是田淑凤诉天猫、胡红芳诉携程、刘权诉美团外卖以及郑育高诉携程纠纷。

7《个人信息保护法》第七十条:个人信息处理者违反本法规定处理个人信息,侵害众多个人的权益的,人民检察院、法律规定的消费者组织和由国家网信部门确定的组织可以依法向人民法院提起诉讼。

参考文献

[1] 雷希. 论算法个性化定价的解构与规制——祛魅大数据杀熟[J]. 财经法学, 2022(2): 146-162.
[2] 李春光. 数字经济背景下个性化定价反垄断研究[J]. 技术经济与管理研究, 2021(11): 67-71.
[3] 喻玲. 算法消费者价格歧视反垄断法属性的误读及辨明[J]. 法学, 2020(9): 83-99.
[4] 付丽霞. 大数据价格歧视行为之非法性认定研究: 问题、争议与应对[J]. 华中科技大学学报(社会科学版), 2020, 34(2): 95-104.
[5] 洪延青. 网络运营者隐私条款的多角色平衡和创新[J]. 中国信息安全, 2017(9): 46-49.
[6] 徐敬宏. 网站隐私声明的真实功能考察——对五家网站隐私声明的文本分析[J]. 当代传播, 2008(6): 67-70.
[7] 徐雷, 徐润婕. 移动APP隐私条款可获得性及内容分析研究[J]. 现代情报, 2020, 40(7): 82-91.
[8] 李丹. 算法歧视消费者: 行为机制、损益界定与协同规制[J]. 上海财经大学学报, 2021, 23(2): 17-33.
[9] 欧乃瑜. 从大数据“杀熟”现象透视电子商务平台算法权力滥用的规制路径[J]. 上海法学研究, 2021, 6(2): 189-204.
[10] 郝俊淇. 平台经济领域差别待遇行为的反垄断法分析[J]. 法治研究, 2021(4): 124-134.
[11] 朱芸阳, 安楠. “卡-梅框架”下知情同意规则对价格歧视的规制范式与规则配置[J]. 经贸法律评论, 2021(6): 1-15.
[12] 刘颖. 我国《个人信息保护法》中的“守门人”条款[J]. 北方法学, 2021, 15(6): 73-83.
[13] 吴立兰. 平台经济下大数据“杀熟”的法律规制[J]. 上海法学研究, 2020, 3(1): 44-55.
[14] 王利明, 丁晓东. 论《个人信息保护法》的亮点、特色与适用[J]. 法学家, 2021(6): 1-16+191.
[15] 张新宝, 赖成宇. 个人信息保护公益诉讼制度的理解与适用[J]. 国家检察官学院学报, 2021, 29(5): 55-74.
[16] 刘晶. 电商经营者大数据“杀熟”行为的违法性分析及规制路径探讨[J]. 私法, 2020, 33(1): 226-245.
[17] 任震宇. 《中国消费者权益保护状况年度报告》首度发布[N]. 中国消费者报, 2022-04-25(001).
[18] 马丹丹, 岑咏华, 吴承尧. 信息样本的有偏采集如何导致决策偏见?——基于采样偏差的新视角述评[J]. 外国经济与管理, 2017, 39(12): 23-37.
[19] 王文君. 算法个性化定价的反垄断法反思[J]. 甘肃政法大学学报, 2021(5): 141-156.