1. 引言
“数字友好”是数字文明时代的重要理论成果,2020年8月,由中国世界贸易组织研究会数字经济和数字贸易专业委员会发起的首届“世界数字友好大会”发布了《世界数字友好宣言》,首次提出“数字友好”理念 [1] 。2022年1月15日,习近平总书记在《不断做强做优做大我国数字经济》中作出重要关切:要提高全民全社会数字素养和技能,夯实我国数字经济发展的社会基础。在数字时代,“数字友好”是人与数字化和谐共生的社会形态和文明趋势,构建数字友好型社会应当是人类共同的价值需求。但在数字化和全球化的过程中,传统网络监管暴漏出诸多薄弱环节,在发展网络技术的同时,探索和建立适合网络发展需求和数字友好需求的管理模式,已经成为当今国际社会共同关注的问题 [2] 。2022年3月,英国《在线安全法案》(以下简称《法案》)被英国议会接受后发布,是英国政府努力建立新数字时代的里程碑,是世界上第一部有关在线内容安全规定的法案。它要求科技巨头在合规的情况下承担内容审查责任,要求互联网企业建立自动审查系统,对聊天应用或封闭群组的产品进行审查,在保护用户隐私的情况下对非法信息进行实时识别、监控并及时处置将保护儿童免受色情等有害内容的影响,限制人们接触有害的内容。《法案》的发布,传达了政府对保障网络安全的承诺 [3] ,是政府构建数字友好型社会的重要尝试。通过对《法案》制定背景、规制逻辑和规制理念进行梳理,综合《法案》引起的积极与消极评价,可以对其中成功的经验进行借鉴,对不合理之处进行总结和反思,从而为我国政府对网络内容治理提供参考路径。
2. 英国《在线安全法案》的立法目的与规制逻辑
随着网络空间的战略地位逐步提升,各国对网络安全的重视程度也在增加,与此同时,网络空间中产生的违法和有害内容严重阻碍了网络健康有序地发展,因此对网络内容进行规制既是对网络安全的保护,也是对社会需求的积极回应。《法案》通过“义务–权力–权利–其他”的规制逻辑,为英国未来的二级立法提供了原则性指引。
2.1. 立法目的:基于战略指引和规制需求
在国家战略方面,网络空间在国际社会中的战略地位不断提升,面对严峻的网络安全形势,英国曾发布《2022国家网络战略》和《2022~2030政府网络安全战略》两份战略,表明了英国政府全面提升网络安全实力的决心 [4] 。英国希望建设成为更安全、更有网络韧性的国家,以维护公民利益和国家利益。《法案》的制定和发布,就是在网络安全战略下针对网络内容治理的重要举措。
在规制需求方面,随着网络空间中的越轨行为以及网络犯罪行为的增加,对网络内容的管理需要进一步加强。在《法案》制定前,英国在互联网内容领域形成了行业自律机构、网络服务提供商、政府部门、社会团体、公共利益组织等多方主体共同配合、共同治理的格局。英国通讯管理局(Ofcom)对视频平台进行监管,而其他大多数在线内容包括社交媒体、搜索引擎以及门户网站上的文字、图像和视频则依靠行业自律组织和平台的自我约束。但在网络中非法内容和有害内容不断增加的情形下,一系列网络社会负面事件表明,仅依靠行业自律和平台约束已经不能满足网络内容的管理需求,应当通过更强的管理力度和政府的有效监管对网络内容进行治理,保证网络健康良好地发展。在此迫切的规制需求下,《法案》为Ofcom对某些互联网服务的监管提供相关规定,为通信犯罪提供相关规制依据 [5] 。
2.2. 规制逻辑:义务–权力–权利–其他
该《法案》将与网络内容治理的相关事项提炼归纳,总体而言遵循了“义务–权力–权利–其他”的规制逻辑,体现了对网络安全内容宏观性、原则性治理的思路。具体而言,“义务”是指对受监管的“用户对用户服务”和“搜索服务”的提供者的注意义务和其他职责,包括对色情内容的管理职责和缴付费用的责任。对于服务的具体区分方式,《法案》仅提供初步的划分依据,具体细化工作将由二级立法完成。“权力”是指Ofcom在受监管服务方面的权力和职责,包括对用户服务和搜索服务类别的等级、对服务的风险评估、与信息相关的审计权力、处理恐怖主义内容的权力以及执行权等。“权利”即被监管的服务提供者具有上诉和超级投诉的权利。《法案》的最后对国务大臣在受监管服务方面的职能、通信犯罪和补充性规定等分别进行了明确,并对《法案》中特殊词汇的概念进行了解释,这些部分共同构成了“其他”部分。
3. 英国《在线安全法案》的规制理念
《法案》采取了较为新颖的规制方式,将服务类型区分为“用户对用户服务”以及“搜索服务”两类,赋予两类服务不同的注意义务和职责。除此之外,《法案》在规制内容中对特殊领域进行重点保护,并通过明确英国通信管理办公室监管权力和增加“合法但有害”内容管理的方式,进一步加强了对网络内容的管理力度。
3.1. 基于服务类型区分规制
《法案》对注意义务的规定采用了以服务类型为划分依据的区分规制方式,将服务提供商划分为“用户对用户服务”以及“搜索服务”两类。“用户对用户服务”是为用户之间通过社交媒体平台等上传和分享内容提供帮助和支持的服务,这类服务主要的功能是提供信息的共享服务。而“搜索服务”是指属于或包括搜索引擎的互联网服务。两类服务对应的注意义务也不同,“搜索服务”对应的注意义务相对较低,对应的约束内容也较少,包括非法内容的风险评估义务、儿童风险评估义务、保护儿童安全义务、有关表达自由和隐私的义务、保存记录和审查义务等。相反,“用户对用户服务”是在以往治理经验中出现问题较多、用户群最大的平台,比如主要的社交媒体平台,因此这类服务提供者的注意义务较高,除了“搜索服务”中包含的义务,还包括成人风险评估职责、保护具有民主意义内容的义务、保护新闻内容的义务等。由于“搜索服务”的注意义务和需要承担的责任较低,在实施监管后,可能出现非法内容的风险较大,因此对于“搜索服务”的范围应当进行严格限制。对于同一服务涉及两个服务类型交叉的情况,《法案》规定,若服务中唯一内容是由服务本身启动,则将此服务划分为“搜索服务”,其余可能构成两种服务类型交叉的服务则均属于“用户对用户服务”,对应较高的注意义务。但目前基于服务类型区分规制的方式存在漏洞,对于个人服务的性质难以分类。针对这一问题,Ofcom将在《法案》通过后的6~18个月的时间里进行研究,并向政府建议个人服务将属于哪些类别 [6] 。
3.2. 对特殊内容重点保护
作为对网络安全内容的专门性规定,《法案》集合了较为典型的在线安全问题,针对儿童安全、新闻内容、虚假广告以及色情内容等重点领域进行了规定。
例如,《法案》对儿童安全注意义务进行特殊规定,体现了对儿童的特别保护。英国较为注重网络对未成年人的影响,2021年9月起,英国最新的《适龄规范》 [7] 就已经展示出保护儿童免受不良在线内容或服务影响的态度。作为“第一部相关类型的法规”,《适龄规范》在英国《数据保护法案》与《通用数据保护条例》等法规的监管框架下提出了很多互联网儿童保护全新标准,直接推动了平台企业进行新一轮儿童保护措施的升级。此次《法案》的出台,对网络内容服务进行严格规定。无论是“用户对用户服务”还是“搜索服务”,都需要履行儿童风险评估义务和保护儿童安全义务。《法案》在第四章对儿童准入评估、关于儿童评估的义务以及“可能被儿童获取的”含义进行了专章规定,第七章中也提到了“对儿童有害的内容”等,第六章执行权的章节中,也包含儿童准入评估内容。可见《法案》大量增加了有关未成年人网络服务规定的篇幅,加大了对向未成年人提供不良信息的网站的惩罚力度。与其他国家和英国原有的未成年人网络安全保护制度不同之处在于 [8] ,网络平台必须向国家犯罪署报告他们在其平台上发现的儿童性剥削和虐待内容,取代了原有的自愿报告制度 [9] 。
3.3. 加强对在线内容的管理力度
《法案》通过明确政府监管职责,以及扩大管理内容范围的方式,进一步加强政府和平台对在线内容的管理力度。其一,《法案》进一步明确了英国通信管理办公室(Ofcom)作为英国互联网的内容法定监管机构的职责。Ofcom于2003年成立,作为独立监管机构,直接对议会负责,内部运作具有高度自主性 [10] 。这个独立统一的监管机构彻底打破了原来信息领域中存在的各种壁垒,使技术和业务得到进一步融合,节约了部门间事务协调的成本,进一步提高了监管水平 [11] 。《法案》规定,Ofcom的主要职责包括执行监管内容;根据监管框架发布指南、制定业务守则等。在网络在线安全内容需要加强监管的背景下,Ofcom需要继续细化具体步骤和措施;依据《法案》对服务提供商的区分监管,对服务行为进行监督和约束。其二,《法案》将“合法但有害”的内容纳入管理范围,从而扩大管理内容的范围。在网络环境中,合法的内容可能违背道德,传递错误的价值观,让信息接收者感受到被冒犯等,这一类信息虽然不属于非法信息,但仍可能给他人带来生理或心理上的损害,这一类信息属于灰色信息的边缘内容。由于网络内容的管理范围扩大,为了避免过度限制言论自由,对于“合法但有害”信息的认定应当进行限制,避免其范围过度扩张。在执行层面,《法案》赋予Ofcom权力认定“合法但有害”的内容,可以进入被调查公司的场所,访问其数据和设备,要求公司提供必要的信息和数据,包括公司内部在选择和显示内容方面的算法,以评估这些公司管理的网络平台是否有伤害用户的行为,且这一认定权力不能授予公司或高管。由于“合法但有害”信息的危害程度低于“非法信息”,因此对发布、传播“合法但有害”信息的方式应当适当轻缓,低于刑罚的处罚力度。但若涉及的平台没能及时有效处理有害信息,例如让儿童浏览到色情图片,或让成年人和儿童接触到宣扬恐怖主义意识形态或暴力的信息等,法律将对高管人员进行刑事制裁,且已要求法律委员研究刑法如何处理此类事件。
4. 英国《在线安全法案》的基本评价
《法案》自内容发布以来,收获了积极与消极的双重评价。一方面,其对社会热点问题的积极回应让社会对《法案》内容充满期待,认为其可以及时解决网络内容中存在的问题,实现网络内容的有效治理。另一方面,《法案》的公布也引发了侵犯言论自由的消极评价,其中存在过度严厉的条款以及模糊不清的概念,让主张言论自由的社会群体对此感到担忧。
4.1. 积极评价:《法案》能够起到治理网络内容的效果
《法案》的内容回应了网络内容治理的关键问题,兼顾了网络内容发展现状和社会需求。
其一,《法案》增设的新内容,顺应了网络内容治理的发展现状。例如在网络诈骗愈演愈烈的情形下,《法案》规定了虚假通信罪,对严重的发布虚假信息行为进行规制。“合法但有害”内容规制的增加,也体现了《法案》与网络内容发展现状的契合。网络的快速发展意味着,许多新出现的信息类型可能不属于现有法律制度下的非法信息,因此对有害内容带来的风险进行提前规制也具有必要性,可以迅速应对新出现的有害内容。前数字、文化、媒体和体育事务国务卿(DCMS) Baroness Morgan称赞《法案》具有里程碑的意义 [12] 。工党议员(Labour Member of Parliament, MP)和影子文化秘书Lucy Powell也对《法案》表示支持,甚至认为《法案》出台过程有些延迟,应当更及时地对网络内容进行监管。英国政府的青年心理健康大使Dr Alex George认为:“这是英国一个具有里程碑意义的时刻。网络虐待的问题已经升级为一种真正的流行病,它正在影响着人们的身体和心理,现在是时候采取行动了 [13] 。”Meta的公共政策经理Richard Earley也对《法案》的监管力度的加强表示支持:在监管问题上,Meta长期以来一直在呼吁像《法案》这样的法规,即在互联网上制定高标准。Meta自己也有严格的规则,并认为网络内容监管是必要的。
其二,《法案》回应了社会对网络内容的重要关切。根据国家防止虐待儿童协会(NSPCC)的信息自由请求,在2020至2021年,网络犯罪达到创纪录水平,与儿童性犯罪的性交流数量在三年内增加了近70%。而《法案》的规定及时回应了对儿童接触网络内容的保护问题,发挥了重要的社会作用。《法案》弥补了以往对儿童涉网内容监管的疏漏,补充了对跨平台侵犯儿童权益行为的打击。以往的损害儿童身心健康的事件可能发生在多个平台上,例如,年轻人经常会在一个平台上一起玩游戏,同时在另一个缺乏监管的其他服务上相互交谈。考虑到这类行为对儿童构成的跨平台风险,Ofcom将在政府的指示下进一步填补这一漏洞,对服务平台提出明确的管理义务,在履行安全职责时合作应对跨平台危害。在科技公司义务方面,《法案》要求公司对平台内容进行风险评估,并公布评估结果,以便公众了解一项服务使用过程可能对儿童构成的风险。同时,《法案》将以往规定的年龄限制进一步细化,平台需要由形式审查转变为实质审查,公开其用户年龄审查方法,比如年龄验证技术等。现英国数字、文化、媒体和体育国务卿Nadine Dorries提出,《法案》目的是“让英国的互联网成为世界上儿童和弱势青少年上网最安全的地方” [14] 。英国互联网观察基金会(IWF)的首席执行官Susie Hargreaves也对《法案》表示赞成,她认为:“仅去年一年,我们就删除了25.2万个关于儿童性虐待的网页。我们在网上看到的犯罪行为对线下的儿童产生了真正的影响。例如在今年的前六个月,我们删除了2万张7到10岁儿童的不雅图片,而且这种图片每年都在增长。考虑到这一点,我们非常欢迎这项法案。IWF支持将加密作为一种技术解决方案 [15] 。”对于儿童来说,《法案》意味着所有在监管范围内的公司都必须评估风险并采取行动,应对威胁儿童安全的非法活动。
4.2. 消极评价:《法案》过于严厉涉嫌侵犯自由
对于网络内容的管理,应努力在确保用户安全与维护网络空间开放自由间取得适当的平衡 [16] 。《法案》在加强对在线内容管理力度的同时,也在一定程度上限缩了网络空间中的言论自由,因此也引发了相关争议。BCS在2022年8月对IT专业人士进行的调查发现,58%的人担心该法案的言论自由含义,只有14%的人认为该法案适合当时的目的 [17] 。一个拥护言论自由的网站“Reclaim the Net”发布文章表示:《法案》中对“合法但有害”的认定标准涉及主观判断,用词较为模糊,例如“造成真正和实质性的风险(Real and Substantial Risk)”“合理解释(Reasonable Excuse)”“如提到的伤害一样(In the Same Way as References to Harm) [18] ”等词汇,这些标准可能导致有害内容范围过于宽泛,让人们怀疑该《法案》是否符合国际人权标准 [19] 。以往滥用网络对议员实施攻击的人,会将自己定义为“公民记者”,从而规避对言论的规制。NC1号修正案通过取消公民记者这一身份,以求清理假借记者身份滥用网络内容的人,维持记者身份和新闻行业的稳定。Richard Earley提出,该《法案》中有很多值得欢迎的地方,但在很多方面,很明显它已经偏离了它的初衷。《法案》对私人信息传递带来的影响就是一个例证,公共社交媒体与私人信息非常不同,应该分别监管,而现有的监管规则在监督公共社交媒体的同时,无疑对私人信息的自由进行了过多限制。智库经济事务研究所的公共政策主管Matthew Lesh说:“英国威胁科技公司的高管要入狱,这是对言论自由和创业精神的一次攻击。”公民自由组织“老大哥观察”的法律和政策官员Mark Johnson认为,就英国传统的言论自由标准而言,《法案》将破坏过去的标准,从未见过的大型科技审查制度。言论自由联盟秘书长Toby Young也认为,该法案将对言论自由产生寒蝉效应,并对政府表示将迫使社交媒体平台删除“合法但有害的”内容表示担心,因为这将使政治活动人士和声称代表弱势团体发言的利益团体,他们将会对任何不同意的观点称为有害。开放权利组织的执行董事Jim Killock则认为言论是“天生是有害的”,基于此观点,对有害的言论进行限制意味着大部分言论都将受到限制,且私营公司需要控制言论和想法是“非常危险的”。保守党议员David Davis称《法案》为“审查宪章”,并认为它规制的内容过于宽泛,将对言论自由产生“寒蝉效应”。
5. 借鉴《在线安全法案》的必要性与可行性
《法案》的积极评价中,不乏对中国具有借鉴价值的经验路径,因此可以考虑结合中国自身的法律和社会情况,对《法案》中具有创新性和合理性的规定进行法律移植,以此促进中国对于有害内容规定的完善。然而,《法案》仍然具有消极评价,其规定并非完美,因此应当分析借鉴《法案》的必要性和可行性,对其中具有参考意义的规定进行学习,同时充分考虑中国的文化和法律制度特点,而非盲目照搬照抄其中的经验。
5.1. 必要性:网络环境需要与国际社会趋势
网络环境的构建既能反映国家的经济和科技发展,又能反过来为国家进步带来积极影响,网络内容安全作为国家安全的重要组成部分,其重要性也日益凸显,因此构建积极健康的网络生态环境势在必行。然而网络有害内容也在侵蚀着人们的身体、精神和心理健康,甚至威胁国家的安全和社会的稳定。对网络有害内容的监管能够切断有害信息与用户的纽带,降低甚至消除有害内容的影响,因此全球多个国家和地区都在努力加强平台的注意义务和内容安全责任,营造良好的网络环境,着力监管网络有害内容。英国《法案》的出台是对网络内容监管的重要尝试,虽然经历了艰难的立法过程,但其中的探索经验具有较强的借鉴意义,《法案》的出台也代表了英国在互联网内容治理领域的重大进展,表明法定监管是互联网内容治理过程中的重要路径之一。中国的网络环境虽然与英国有所不同,但同样面临网络技术发展与监管力度之间的平衡问题,需要在限制有害内容的产生和传播的同时,尽可能保证公民言论自由这一宪法权利,同时也面临着技术攻击、虚假信息危害、信息泄漏等诸多难题。相较于英国,中国拥有更为大量的网民数量和庞大的网络生态系统,因此针对中国的网络环境制定针对有害内容的相关法律法规十分必要。目前中国已经出台了一系列相关的网络安全法律法规和规范性文件等,如《网络安全法》《数据安全法》《关键信息基础设施安全保护条例》《网络安全审查办法》等等,但法律效力较高的《网络安全法》与《数据安全法》并未针对有害内容这一主体,而是分别从网络安全与数据安全两方面对网络信息进行规制,虽然能够涵盖部分有害内容的规制需求,但并不具有专门性和针对性。此外仍需要制定相关的配套措施,针对需要明确的重点问题进一步细化,明确《数据安全法》的分级分类制度的具体要求与标准,进一步提高实操性,才能提供实践指导。因此借鉴英国《法案》可以帮助完善中国的网络安全法律体系,提升法律的适用性和可执行性。
此外,借鉴英国《法案》也有助于加强中国与国际社会在网络安全领域的合作与交流,促进全球网络安全的共建共享。现阶段,将合法但有害的内容纳入法定监管成为治理有害内容的重要路径。除了英国《法案》,德国和新加坡也开始将有害内容纳入法定监管的范围。德国《网络执行法》要求社交媒体公司在收到用户通知后24小时内删除仇恨言论、煽动性言论以及虚假信息。新加坡《防止网络虚假信息和网络操纵法案》则主要保护公众免受虚假信息的操纵,促进网络广告的真实和透明。因此学习《法案》的先进经验,结合本国的法律和社会实际进行应用,也是顺应国际趋势的必要举措。
5.2. 可行性:法律制度现状与儿童保护需求
一方面,《法案》的部分规定思路和背景与我国法律具有相似性,具有移植和参考的可行性。例如《法案》中规定了搜索引擎和服务商的合规义务,包括防止出现欺诈性广告、保护言论自由、保证用户对网络浏览内容具有选择权利等,其中对于构成犯罪的,犯罪主体将面临罚款、有期徒刑等刑事责任。这一规定对我国有害内容监管的行刑衔接路径具有参考意义。中国在规制有害信息时,也可以采用此种行政法前置与刑法衔接方式,对于未履行合规义务的服务商或平台采用行政处罚,对于情节严重构成犯罪的,依照刑法处罚。这样既无需刑法中增加罪名应对纷繁复杂的违法犯罪行为,又能够有效实现不同法律的规制效果。
另一方面,《法案》对儿童对保护对中国未成年人网络保护具有较强的参考可行性。2023年9月20日,中国通过了限制儿童上网时间的《未成年人网络保护条例》。其中第三条第一款规定国家网信部门负责统筹协调未成年人网络保护工作,并依据职责做好未成年人网络保护工作。针对具体防止未成年人沉迷对方式,以及防止未成年人接触有害内容对规定,可以参考《法案》进行明确。《法案》要求数字平台维护一个投诉系统,供家长举报他们在网上遇到的违反这些规定的行为。目前我国主流媒体平台、视频网站等虽然提供了专属于青少年模式对功能,但对于投诉和举报渠道的建设需要更为畅通。此外,中国可以借鉴《法案》区分对两类受特定年龄保护的内容区分,对儿童有害的“首要优先”(Primary Priority)和“优先”(Priority)内容。对于前者,它要求数字平台“完全禁止”儿童访问,包括色情、宣扬自残、饮食失调和合法自杀;对于后者,平台公司必须确保对儿童来说是“适龄的”,包括骚扰、健康和疫苗错误信息或暴力等内容。这一规定可以实现不同内容差异化管理,既避免未成年人接触有害信息,也能够保证具有一定认知的未成年人正常获取信息,同时减少不必要的监管成本。
6. 英国《在线安全法案》对我国的启示
我国在构建数字友好型社会的过程中,必不可少需要通过政府的引导和监管,促进网络内容健康有序发展,从而为公民和网络良性互动和社会的全面发展提供基础。2020年3月1日起,我国《网络信息内容生态治理规定》(以下简称《规定》)正式实施,《规定》的内容和目的与《法案》具有相似之处,既致力于营造良好的网络生态,发挥网络内容治理作用,又将保护网络用户利益作为重要目标。《法案》中成功经验证明,我国可以在网络内容治理中,增加“合法但有害”信息这一概念,适当扩大且明确监管范围,同时形成由政府主导的多元管理模式。《法案》引起的争议也值得我国反思,对网络内容的监管应当寻求言论自由和监管力度的平衡,既要避免言论自由的滥用,又要充分尊重网络内容的创新性和自由性。
6.1. 增加对合法但有害信息的管理
《法案》增加了对合法但有害的信息进行管理后,起到了积极有效的治理效果,各服务平台也在审查和清理服务中包含的有害信息。除了英国《法案》,德国和新加坡也开始将有害内容纳入法定监管的范围。德国《网络执行法》要求社交媒体公司在收到用户通知后24小时内删除仇恨言论、煽动性言论以及虚假信息。新加坡《防止网络虚假信息和网络操纵法案》则主要保护公众免受虚假信息的操纵,促进网络广告的真实和透明。增加对有害信息的监管和治理已经成为一种网络内容治理的趋势,网络环境的复杂性也证实这一监管是确有必要的,因此我国在推进网络内容治理的过程中,也应当明确增加对有害内容的治理。
目前我国《网络安全法》等规范侧重于在宏观层面对网络的健康发展提供指引,但对于微观层面发布信息的种类、提供服务的内容等,多依据行业自治,由各个服务平台对自身网络内容进行管理,由行业协会统一细化规范等,因此对于有害信息的界定缺乏权威标准,很多内容由于不属于典型的非法信息,而暂时逃脱监管,仅在用户举报等情况下,才会引起管理者的注意,形成平台被动管理的局面。目前《规定》第二章第六条、第七条明确规定了网络信息内容生产者的“红线”,对违法和不良信息的类型进行了明确。不同省市网信系统也依照《规定》及时清理违法和不良信息,对色情低俗类、赌博诈骗类、流量造假类等多种有害信息进行查删。但《规定》中违法和不良信息的范围相较于“合法但有害”的信息范围仍然有限,规范范围相对较小,在治理网络内容方面发挥作用受限。应当借鉴英国由Ofcom判断合法但有害内容的治理思路,由国家机关对有害内容进行严格判断,既具有公信力,又避免不同服务平台对相同信息产生不同判断。
对于“合法但有害”信息规定的借鉴思路,应当结合我国网络内容治理的现有模式和发展需求,同时结合我国对未成年人保护的理念,针对成年人与未成年人区分规定“合法但有害”信息的范围。根据《网络安全法》第8条规定,国家网信部门负责统筹协调网络安全工作和相关监督管理工作。这一规定赋予了国家网信部门统筹管理网络安全工作的权力,且根据《网络安全法》第50条的规定,国家网信部门有权对非法信息进行监管,在发现法律、行政法规禁止发布或者传输的信息的,应当要求网络运营者停止传输,采取消除等处置措施,保存有关记录。对合法但有害信息的管理仍可以在此规定基础上进行,由国家网信部门对有害信息的特征和类别进行大致规定,并赋予各个行业和平台细化规定的权利,结合自身特点对有害信息的内容进行规范和判定,遇到无法认定的特殊信息内容,可以交由国家网信部门统一认定,由此实现对合法但有害信息的管理。由于儿童和成年人对于“有害内容”的接受度不同,因此平台对于提供给不同主体的内容也提出了不同管理义务。为了确保儿童和成人均不接触到有害内容,且满足其正常获取信息的需求,《法案》在平台内容的监管上着重对儿童接触的信息进行了严格规定,增加了保护儿童的力度。部分网络内容不利于儿童的心理健康,但对于成年人而言不属于“有害内容”,成年人根据自身的认知可以正确认识这些信息,因此这部分内容仍可以呈现在针对用户是成年人的网络平台中。该《法案》的设计是为了让英国互联网用户获得一种新的、更安全的数字体验,保护儿童免受有害内容的伤害,限制人们接触非法内容,同时仍然保护言论自由 [20] 。对于有害内容的界定,可以借鉴《法案》中以成年人和未成年人为区分的界定方式,既能避免对网络内容的过度限制,又能彰显出对儿童特殊保护的理念。
6.2. 形成由政府主导的多元管理模式
网络空间的战略地位和网络环境的治理需求意味着,由政府进行网络内容的监管具有必要性和可行性。英国Ofcom主导的网络内容治理取得良好效果也进一步证明,网络内容的治理需要政府的正确引导和监管。一方面,在政府主导的治理模式下,仍需将部分社会管理权限下放给行业管理者和服务提供者,网络活动包含的社会属性决定了公众需要具有网络自治权 [21] 。政府不能成为唯一的网络监管主体,由于网络信息的纷繁复杂和各个服务平台的个性化,仅依靠政府对网络内容进行监管可能会导致监管疏漏,还可能造成管理方式与平台自身特点的不适应,因此监管必须是多元化的。在应对网络空间所出现的种种乱象尤其是突发网络负面舆情时,政府往往会采取强制力对过激言论和相关账号进行监管和清理,虽然起到了治理网络内容的作用,但借助行政强制或者技术屏蔽手段来封堵的方式未能积极回应舆情诉求。
这种“一刀切”的管制型治理方式虽然有效,但不应当成为唯一的治理手段,否则会抑制传统柔性治理方式和网络“自我净化”功能的发挥,更会导致网民私权因政府的争议性举措而遭受损害 [22] 。行业自律和平台自身管理可以依托行业内部较为完善的行业规范和所掌握的技术优势,结合行业特点和平台功能,更有效地规范网络内容。多元化的治理方式不仅可以减轻政府治理的负担,还可以更具有网络内容监管的针对性和及时性。另一方面,在多元化的网络内容治理过程中,仍应当坚持政府主导的管理模式,政府仍应当保留监管权力,在必要时发挥自身监管优势。虽然平台需要被赋予一定的监管权,正逐步成为数字时代的组织者、协调者和管理者,在网络空间中拥有特定的管理权。但赋予平台权力的同时,不能彻底放任其管理,而不加监管,平台所获得的管理权本质是一种软权力,是平台自治契约与法律义务交织后所产生的权力形态 [23] 。
政府主导的多元化管理方式意味着其他主体也可以参与到网络内容的管理中,例如平台本身也是自查自纠和落实监管的主体。现阶段我国《规定》也尝试了多元化管理方式,明确了平台的信息安全管理义务。《规定》第三章要求网络信息内容服务平台应当履行信息内容管理主体责任,培育积极健康、向上向善的网络文化,建立网络信息内容生态治理机制,包括不得传播违法信息,应当防范和抵制传播不良信息,鼓励在重点环节传播正能量信息,不得在重点环节呈现不良信息等。按照国家网信办统一部署,各网站平台对照《规定》要求深入开展自查自纠,结合网站平台的自身特点有针对性地加强网络生态治理工作,取得一定成效。《规定》第九条明确,网络信息内容服务平台应当健全账号管理、实时巡查等制度,对存在不符合主流价值导向的平台及时处置,优化改造平台内容。在《规定》实施后,国家网信办会同相关部门对国内主要网络直播平台的内容生态进行全面巡查,着力把网络直播专项整治和规范管理工作引向深入。结合实践效果可知,政府主导下的多元管理模式对于网络内容的治理起到了良好的效果,值得进一步推广。《法案》对于数据合规的思路也有可取之处,其并未要求企业阻止属于其职责范围内的有害在线内容,也不苛求企业去评估每一项内容是否属于有害内容,而是要求企业证明自己尽到管理义务即可,采取措施防止有害内容的传播,若发现企业的服务被有害信息利用,则应尽快停止为有害信息提供的服务内容。我国互联网企业的合规措施也可以采用《法案》的方式,既能有效减少有害信息的传播,还可以尽可能减少监管对企业本身业务开展的束缚。
6.3. 寻找言论自由与网络监管间的平衡
《法案》在取得治理效果的同时,其引发的争议也不容忽视。对于增强网络内容治理后引起的言论自由侵犯问题,值得进一步反思和总结。《法案》本身在制定过程中并非没有考虑言论自由的保护问题,为了平衡监管力度和言论自由,《法案》对上诉和投诉内容进行了单独规定,允许受监管的服务提供者就Ofcom公告提出上诉和投诉。但即使《法案》已经尽可能减少对言论自由的干预,相关的争议仍然存在,一方面是《法案》中对于合法但有害信息的范围界定仍不明确,且有过分扩大之嫌,例如将网络炫耀行为进行刑事规制,对于网络内容的监管过于严厉。另一方面,在《法案》执行过程中,也需要坚持对言论自由的保护。总结《法案》的立法经验和发布效果可以看出,寻找言论自由和网络监管间的平衡,是实现网络内容有效治理的关键问题。网络言论自由的实质是宪法所保障的言论自由在网络空间的延伸,网络立法挑战的核心涉及言论自由的限制程度问题。
我国在未来对网络内容进行治理的过程中,一方面应当谨慎地兼顾多方利益,避免对公民言论自由的过分剥夺,应当尽可能实现政府的监管权与公民言论自由之间的平衡。例如对合法但有害信息的范围予以明确,保证公民对违规信息的类型具有知情权,避免因对违规信息边界的担忧而不敢表达观点,最终导致网络平台丧失了服务社会的意义。公民可以通过言论自由对公权力进行监督,反映一定的社会问题,不能因为言论自由滥用的负面新闻出现而“因噎废食”。另外对于网络内容的监管应当坚守比例原则,并且严格控制刑事追责的启动。对于网络炫耀行为等,信息发布者为了虚荣或引流,在网络空间传递错误的价值观,本身应当受到法律制裁,但这一行为的严重程度并未上升到刑事责任,因此将该类行为认定为犯罪并不妥当,《法案》中将网络炫耀行作为新增的犯罪种类有违刑法谦抑性。我国在网络内容的监管过程中应当避免对刑罚的过度适用,严格依照法律规定和行业自身标准,对非法以及有害的网络内容作出适当处理。在不可能依靠自律或促进公共利益目标而必须由公权力介入时,则强调公权力的干预尽可能保持在必要的范围之内。另一方面,对言论自由的保护并非纵容,应当遵循一定限度,避免言论自由被滥用。
随着网络服务的普及,网络空间因其表达的匿名性、开放性客观上减轻了公众因公开表达可能遭到惩罚的担忧。网络空间的“去中心化”特征更是让自由成为网络虚拟社会的灵魂,但强调自由并不意味着网民可以在网络空间为所欲为。任何权利和自由都并非绝对,网络空间由于用户身份虚拟性和信息传播广泛性等特点,已经赋予了网络使用者区别于现实世界更多的自由,但言论自由的范围应当以公序良俗为边界,不能侵犯公共利益和他人个人利益,因此需要通过监管避免自由的无限扩大,维持网络空间中与现实世界相似的秩序。
7. 结语
数字友好型社会的构建需要政府对网络内容进行及时监管和正确引导,英国《在线安全法案》的公布作为世界上首部关于网络在线安全内容治理的法案,彰显了英国政府在数字时代维护网络安全环境和回应网络社会需求的决心。《法案》的规制理念体现了对网络社会热点问题的关注,因此收获了积极评价,其中的规制思路值得借鉴。但《法案》引发的争议也不能忽视,网络作为社会传递信息和发布言论的重要渠道,在受到监管的同时不能被过度限制,否则将违背网络服务社会的宗旨,无法实现网络发展的价值 [24] 。我国正处在数字友好型社会的构建阶段,政府应当及时对网络内容进行监管,同时赋予行业内部自治的权力,通过政府主导的多元管理模式,实现言论自由与网络监管的平衡,从而实现网络内容的有效治理,促进网络健康发展,推动数字友好型社会的构建的发展。
基金项目
本文系北京师范大学法学院2023年度学术型研究生专项科研基金课题《非法利用信息网络罪的定罪规则研究》(编号:2023LAW026)的研究成果。