人工智能的基本逻辑与伦理困境
The Basic Logic and Ethical Dilemmas of Artificial Intelligence
摘要: 作为一项前沿科技,人工智能正以惊人的速度改变着人类世界。但在实际应用过程中,人工智能还远未成熟,因而引发了一系列伦理问题,亟待解决。以马克思科技思想为分析框架可以探寻到当前人工智能伦理风险产生的原因可归结内因与外因两部分。因此,只有认真梳理人工智能的基本逻辑,并在此基础上把准并解决好人工智能现阶段存在的伦理问题,才能更好地推动人工智能“以人为本,向善而行”。
Abstract: As a cutting-edge technology, artificial intelligence is changing the human world at an astonishing speed. However, in the practical application process, artificial intelligence is far from mature, which leads to a series of ethical problems, which need to be solved urgently. Based on Marxism’s thoughts on science and technology, we can explore the causes of current ethics of artificial intelligence risks, which can be divided into internal and external causes. Therefore, only by carefully combing the basic logic of artificial intelligence, and on this basis accurate and solve the ethical problems of artificial intelligence at this stage, in order to better promote artificial intelligence “people-oriented, good deeds”.
文章引用:刘嘉文. 人工智能的基本逻辑与伦理困境[J]. 哲学进展, 2023, 12(12): 2571-2578. https://doi.org/10.12677/ACPP.2023.1212417

1. 引言

当前,随着大数据、云计算、物联网和互联网等相关技术的加速创新,人工智能领域也获得了较快的发展。数据和算力资源的日益丰富、人工智能成果的加速落地、应用场景的不断拓展,推动着人工智能技术日益融入经济社会发展各领域全过程,不断将自身的潜在价值转化为实际效益,成为人们生产生活必不可少的工具,并使人们生产生活的数据基础和信息环境得到极大提升。特别是近年来,生成式人工智能的出现使人工智能领域实现重大突破,标志着人工智能领域迎来重要里程碑,开启了由弱人工智能向通用人工智能转变。但与此同时,人工智能并非“无所不能”,仍然具有十分明显的局限性,甚至在实际应用过程中引发了一系列的伦理问题,不仅影响了社会稳定,也给人类生产生活带来了不利影响。因此,只有正确认识人工智能的伦理困境,找到引发伦理困境的原因,并在此基础上思考对策,才能规范人工智能的研发与应用过程,使其更加符合人类利益与道德标准,推动人工智能健康、可持续发展。

2. 人工智能的基本逻辑

2.1. 人工智能的概念

人工智能作为一门前沿交叉性学科,其科学定义及基本概念目前在学术界还尚未形成统一定论。从基本词义来讲,“人工智能”一词主要包含“人工”与“智能”两部分内容。其中,关于“人工”的概念界定未有较大争议。《现代汉语词典》对“人工”解释为人造的或人力,应用较多的释义为人造的、人为的,与机械力与自然力相对。但是,有关“智能”的基本概念却一直未有一致观点,这或许与当代智能科学研究中学者们不同的科学基础或研究出发点相关联。古典理论认为智能是一种纯粹的抽象符号处理过程,思想在其中起着主导作用,也就是思想与机器相互独立存在 [1] 。由于种种限制,他们未能认识到符号源于生命体的客观现实,本质是一种唯心主义观点,但同时也承认了算法或程序所发挥的重要作用,在一定程度上对“智能”问题的研究有所推动。而部分学者着眼于人与智能的关系,认为“智能”是人的独有特征,具有专门性,本身为一种心智能力。随着技术的进步与产业的发展,机器的能力越来越强,“智能”的主体得到丰富,不再拘泥于人本身。2018年,工信部原副部长、北京大学教授杨学山在《智能原理》一书中对“智能”作出较为全面的概括,认为智能是主体适应、改变、选择环境的各种行为能力 [2] ,涵盖了不同主体与不同场景,这也代表了目前学术界大多数看法。

由于“智能”概念的复杂性,有关“人工智能”的定义也一直讨论不休。但总体来看,学者们的理解无非落脚到受人脑启发、模拟人类智能行为、提升人类智能等几个层面,存在某些共通性。根据《2018年人工智能标准化白皮书》,人工智能是指使用数字计算机或由数字计算机控制的机器或应用系统,能够模拟、延伸和拓展人类智能,感知环境并获取及使用知识以得到最佳效果 [3] 。也就是说,人工智能是人类根据自身活动的机理和规律,通过人脑建造的智能体 [4] 。借助运算力、数据量及算法模型等要素,人工智能可以模拟人类智能行为,并且根据内外环境的变化自觉进行学习与推理,从而达到解放人类劳动、提升人类智力的目的。以人工智能的基本能力及智能程度为判断标准,根据约翰·塞尔和雷·库兹韦尔等研究者的划分与展望 [5] ,业内将人工智能分为弱人工智能、强人工智能和超人工智能三个发展阶段。其中,弱人工智能是作为一种无自我意识及主动性,受人类支配的辅助工具而存在的。尽管在固有的程序范围内,弱人工智能可以进行独立判断及自主决策,但由于其并不具备分辨及控制能力,因此代表和实现的也只是设计者或使用者的意志,是人工智能发展的初步阶段;而强人工智能被认为是全方位模拟人类能力甚至超过人类而应对各种挑战的通用智能系统 [6] ,其拥有像人类一样认知与思维,有一定的自我意识,甚至可以自主学习,是人工智能发展的较高阶段;超人工智能则是在科技创造、智慧学习等各方面都将超越人类的智能,较难预见,或许在技术高度发展的遥远未来可以实现。目前,人类社会正处于弱人工智能向强人工智能的过渡,要想真正实现强人工智能甚至超人工智能还需很长一段时间。

2.2. 人工智能的发展历程

人工智能是人类社会进化到现代的技术产物,也是人类文明的巨大飞跃,其发展历程也侧面展现了产业自动化向智能化的转变过程。根据现有资料,自二十世纪四五十年代人工智能相关研究便开始兴起,但最早可追溯到1936年英国数学家A.M. Turing在其论文《论可计算数及其在判定性问题上的应用》中提出的图灵机模型 [7] ,1947,他创作了一篇题为《智能机器》的论文,提出要建造一台在关键设置和特性上与人脑相类似,同时具备婴儿一样学习能力的智能机器 [8] (p. 9)。随后,在他1956年重新发表的《计算机能思维吗》一文中,通过设计“图灵测验”得到了机器能够思维的著名论断 [9] 。图灵的机器智能思想作为人工智能的直接起源之一,为人工智能诞生及发展产生深刻影响。

根据《2018年人工智能标准化白皮书》,本文将人工智能的划分为三个发展阶段,包括三次浪潮,两次寒冬。各阶段的时间跨度及标志事件如下:

第一阶段:20世纪50到80年代。1956年,美国达特茅斯学院年轻数学助教约翰·麦卡锡(John McCarthy)联合克劳德·香农(Claude Shannon)、马文·明斯基(Marvin Minsky)以及IBM公司的纳撒尼尔·罗切斯特(Nathaniel Rochester)共同发起为期两个月的以“精确、全面地描述人类的学习和其他智能,并制造机器来模拟”为目标的夏季研讨会。这次达特茅斯会议被公认为人工智能的起源,1956年也被称作人工智能元年 [10] 。此后,人工智能实验室相继建立起来。1959年,亚瑟·塞缪尔提出了机器学习,人工智能的发展迎来了第一轮浪潮。1972年,美国斯坦福国际研究所研制出首台采用人工智能的移动机器人Shakey。但在1973年,詹姆斯·莱特希尔(James Lighthill)在向英国科学研究委员会提交报告中称人工智能在各领域的影响并未符合预期,同时也由于有限运算速度等的限制,英国政府开始削减研究经费,人工智能第一次遭遇“寒冬” [11] 。

第二阶段:20世纪80年代到90年代末。1982年,日本国际贸易和工业部开启了“第五代计算机研制计划”。而后,由于机器学习方法得到改进,专家系统及人工神经网络等重要研究初露端倪,掀起了人工智能研究的新一轮热潮 [12] 。随着1987年LISP (List Processing)机器市场的崩塌以及日本计算机研制市场化的失败,美国与日本的人工智能研究相继停滞。与此同时,计算机及大规模神经网络存在局限 [13] ,专家系统发展缓慢,人工智能迎来了第二个低谷。

第三阶段:21世纪初至今。20世纪90年代中期,美国麻省理工学院人工智能及机器人制造专家布鲁克斯将“自上而下”的层级方法应用在人工智能领域,研发出一种具备人类相似特征的机器人——Cog [8] (p. 164),其无表征智能理论为人工智能的发展提供了新的研究思路。1997年,IBM的深蓝机器人在国际象棋比赛中对战世界冠军卡斯帕罗夫赢得胜利,引发了人类对于人工智能的重新思考 [14] ,人工智能相关研究渐渐复苏。2006年,加拿大计算机学家Geoffrey Hinton提出了深度学习概念及方法,在语音识别及图像识别中获得了极大成功 [15] ,也使得基于深度神经网络的深度学习成为可能 [16] ,引发人工智能第三次发展浪潮。2016年,谷歌旗下DeepMind公司研发出的阿尔法围棋(Alpha Go),战胜了围棋世界冠军李在石引发了极大关注。由于神经网络、深度学习等新技术的加持,人工智能发展更加蓬勃。2022年11月30日,Open AI推出的ChatGPT为人工智能真正实现智能化迎来转折。

3. 人工智能的伦理困境

人工智能的伦理困境是伴随着人工智能的出现而出现的,主要表现为:人工智能在实际应用中,给人类生产生活带来的不全是积极正向的影响,也存在着一些触及人类自身的根本性问题,影响着人类自身的安全与社会稳定。尽管现阶段,ChatGPT的出现标志着人工智能在技术层面实现较大进步,但这种伦理风险并没有随之消失,反而在加深原有风险的基础上产生了新的风险,例如隐私泄露、价值渗透、学术伦理挑战等,引发了人们对人工智能伦理困境的重新思考。

3.1. 价值渗透风险逐渐加大

ChatGPT自发布以来语言模型经历了GPT-3.5到GPT-4的升级与优化,自然语言处理能力与理解能力不断提升,功能不断强大且在多个领域表现出了更强的适应性。但作为人类智慧的产物,ChatGPT的数据输出功能承载着研发设计者及后台技术操控者的话语权,这就意味着,随着用户及应用范围的逐渐加大,其设计者及操纵者的话语权也越大、价值渗透力越强。而一旦设计者及操纵者的价值观存在问题,例如利己主义倾向、历史与文化偏见等,或将透过ChatGPT在更广泛的范围内进行传播,继而对个人及社会产生错误导向。与此同时,尽管OpenAI公司一直标榜自己为“非盈利机构”,对外宣称其人工智能产品ChatGPT秉持中立原则,但从现实来看,ChatGPT的回答显然包含了明显的政治立场,并试图宣传美国政治、传播西方意识形态 [17] 。这不免让人担心,在国际竞争日益激烈的大背景下,ChatGPT等生成式人工智能一旦被恶意利用或将会成为价值渗透与意识形态渗透的工具,从而影响国际社会或个别国家的安全与稳定。

3.2. 影响学术伦理规范

学术伦理规范是学术共同体内部形成的进行学术活动所共同遵守的基本伦理道德规范,ChatGPT的出现及应用在一定程度上加大了学术伦理的风险。例如在学术研究及论文撰写过程中,某些“投机取巧”的人可能会利用ChatGPT较强的内容生成能力直接完成相关成果,或者经过修改后进行使用与发表。然而由于现阶段生成式AI的生成内容只是按照既定的程序与规则实现数据信息的重组与整合,缺乏来源且不具备人类意义上的创新价值,因而无法体现学术性,甚至极易引发侵权与学术不端行为。与此同时,现阶段相关法律法规还不完善,责任界定与责任追溯十分困难,再加上部分人未直接使用而按照个人风格进行内容改写,使抄袭行为更加的隐蔽 [18] ,监测与追溯的难度也更高。目前,已有多所世界著名高校宣布限制学生在完成作业及学术研究中使用。

3.3. 个人隐私泄露风险

ChatGPT具备较强的对话能力及自主学习能力,也就是它能够在与用户进行连续性对话中不断抓取信息,来保证数据库的充实和问题回应的精准。但在这个过程中,许多涉及隐私的数据化用户信息也被自动收集起来,并经过其数据分析后识别出用户的个人行为及性格偏好,轻易地绘制出用户完整“画像” [19] ,使得隐私安全与数据安全难以保证。值得警醒的是,人工智能的隐私侵害行为十分具有迷惑性。随着自然语言处理能力的进步,人工智能对人类而言或许已不再只是单纯地使用工具。由于声音或思维更接近人,生成式人工智能可以通过对话感知人们的行为和情绪,在情感陪伴方面也发挥着重要的作用,已深入到生活的方方面面。但同时也由于使用者辨别能力及警惕性有所差别,这就造成了人们对其根本“不设防”,甚至在某些情况下,人工智能会向用户申请取得某些权限或将其数据保存到云端,虽然云存储会降低数据泄露的可能性,但也不排除由于用户疏忽或者平台管理不当而造成用户信息泄露的情况。而这些隐私信息一旦被不法分子所掌握,或将会对个人的人身财产安全产生严重危害。

4. 马克思主义科技思想分析框架下人工智能伦理困境的原因分析

作为一项重要的前沿突破性技术,人工智能目前已经广泛应用于社会生活中,为人类提供便利。但在实践过程中,由于人工智能自身技术层面存在固有缺陷以及资本的不合理利用,导致人工智能的不可控性与不可预测性逐渐加大,产生了许多伦理问题,对人类安全及社会和谐与稳定产生不利影响。马克思主义认为科学技术是一种具有根本性的革命力量,这种力量运用得当能够推动生产力的发展、引发人类社会变革,推动人类不断实现自由和解放;而一旦这种力量被资本滥用,则会失去控制,产生“异化”,变为一种异己的力量反过来控制、统治、危害人类自身。马克思主义科技思想是建立在辩证唯物主义与历史唯物主义的基础之上的关于探讨科学技术的产生、发展及其与自然界、人类社会及人类本身相互关系的系统性思想。作为马克思主义理论体系的重要组成部分,马克思主义科技思想内容丰富且与时俱进,涵盖了不同时代特征下科学技术发展的理论基础及实践经验,对指导及反思科学技术发展有着深远影响。因此,借助马克思主义科技思想合理内核对当前生成式人工智能进行全面审视,能够把握风险产生的原因,为接下来生成式人工智能的风险防范与治理、规范人工智能向善而行提供方向。

4.1. 人工智能伦理困境的内生原因

内因和外因是有关事物发展动力关系的哲学问题。马克思主义认为,因果联系是一种必然联系,任何事物的产生及发展都离不开内因与外因,科学技术的发展也无外乎于此。在人工智能领域,内外因的对立统一决定了人工智能发展的方向,使其能够沿着更加合理化的方向发展变化。具体来看,内因是指事物发展变化的内在原因,即内部根据,决定了事物的性质、行为、动机以及其与外在事物的关系。当前,生成式人工智能之所以在应用过程中产生多重风险,归根结底是由于其关键核心技术不成熟、基础技术不稳定以及技术成果转化率不高等自身发展问题的叠加影响,在于内部原因。以人工智能最新成果ChatGPT为例:现阶段,尽管生成式人工智能的基础模型——GPT系列模型不断迭代,新的GPT-4模型在功能和准确度上较之前有所提升,但其仍未克服生成式AI模型的固有缺陷,出现训练数据偏差及和推理相关度较差的情况,致使ChatGPT在应用中对话不一致、答案可采用率低以及上下文输入限制等问题,生成内容的真实性、准确性、时效性都无法保障。由此可见,现阶段ChatGPT依旧存在较大的未知性与不确定性,为风险的产生埋下潜在隐患。发展是事物自身的运动,是前进性与曲折性的统一。按照马克思主义科技思想的基本观点,科技发展是历史性与时代性的统一,是一个螺旋上升、持续渐进的过程。“在发展进程中,以前一切现实的东西都会丧失自己的必然性、自己存在的权利、自己的合理性;一种新的、富有生命力的现实的东西就会代替正在衰亡的现实的东西” [20] 。AI的研发及应用也是这样一个新旧事物相互替代的过程,随着新技术的研发与市场化应用,低效率、有缺陷的旧技术逐渐被替代,AI自身的飞跃与发展得到实现。此时,由技术缺陷引发的各类风险隐患也得到降低。实现人的自由与解放是马克思主义科技思想中科技发展的最终目的,也是马克思主义性质的政党一以贯之的不懈追求。人工智能的广泛开发与应用客观上为人的自由而全面发展创造了物质性的基础与条件,使人们更加接近了这一目标的实现,为实现人类自由解放提供现实力量。

4.2. 人工智能伦理困境的外部原因

外因是影响事物发展变化的外部原因,即外部条件。事物在运动和变化过程中既受到内部矛盾的促进,又受外部条件的控制。从外部原因分析,生成式人工智能多重风险源于资本逐利而造成的不合理利用以及科技异化问题的逐渐加深,也就是“技术与资本”的固有弊病。在《1844年经济学哲学手稿》中,马克思首次对“异化劳动”思想作了阐述。结合当时的国民经济发展状况,他洞察到“物的世界的增值同人的世界的贬值成正比”这一社会现实 [21] ,即工人创造的财富愈多,其自身就愈发贫穷,所生产的劳动产品摆脱了束缚成为一种异己的力量同自身相对立。随着科学认识的加深及技术水平的提升,机器作为一种复杂的工具逐渐应用于资本主义大规模生产过程,成为资本主义生产方式的技术基础。这导致了“工人不只丧失生产资料,也丧失生产工具” [22] 。在此之后,科学技术便以机器的形式进入生产过程,科技异化由此生成并成为劳动异化的主要环节。现代社会,科技与资本的互促不仅没有使人获得解放,反而加重了异化问题。当前,人工智能的研发及应用很大程度上是由利益驱动。大型科技企业以营利为目的,过度追逐产品的商业化与市场化而缺乏对环境和公共伦理风险的考量,忽视了AI发展的价值和伦理尺度 [23] 。这种“利益至上”的发展理念导致了部分企业对AI的风险认知存在偏颇,加剧了伦理风险的产生。

5. 人工智能伦理困境的治理路径

道德、伦理风险是生成式人工智能较为凸显的风险性问题,也是现阶段治理应重点考虑的。因此,在遵守法律法规的基础上,未来人工智能技术与产品还要注重人文精神与道德底线,尊重社会公德与公序良俗、坚守社会主义核心价值观,将伦理规范与道德底线嵌入研发设计、试验阶段、应用推广及用户使用等全过程,不断完善生成式人工智能治理体系。

5.1. 在研发设计时注意伦理嵌入

以AI专家及研发者为主导,在生成式人工智能产品设计阶段进行正面伦理价值的“预防式”嵌入,将人工智能伦理从抽象准则落实到相应的技术研发与系统设计中,实现工具主义与价值理性相融合 [24] 。除此之外,在算法设计、训练数据选择以及模型生成与优化等过程中,要积极采取措施防止出现种族、民族、信仰、地域、性别、年龄、职业等歧视。同时,还要在研发阶段提升生成式人工智能的准确性,确保生成内容真实、准确、客观,采取措施防止生成虚假信息和侵犯个人隐私。

5.2. 在试验阶段进行伦理评估

人工智能相关企业应建立评估委员会,在评估中,通过伦理效应的预测与识别、伦理问题的分析与澄清以及解决方案的开发与确定来修正和完善人工智能开发方案。同时,根据相关建议,在生成式人工智能产品向公众提供服务前应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续 [25] ,从而确保生成式人工智能产品生成内容真实、准确,从根源上减少伦理问题的产生。

5.3. 在推广阶段进行伦理规范

生成式人工智能产品在市场推广与应用过程中要注重技术伦理规范性。企业要加强伦理规范与行业自律,尊重知识产权与商业道德,不得利用算法、数据、平台等优势实施不公平竞争或违法犯罪行为,同时加强潜在风险研判和防范,确保人工智能安全、可靠、可控。除此之外,政府要加强监管,推动构建风险管理机制,严格落实《新一代人工智能伦理规范》《生成式人工智能服务管理办法》等法律法规,不断防范化解人工智能在重要领域引发的伦理风险,使人工智能的发展与社会价值系统相融合。

5.4. 在应用阶段倡导伦理自律

用户在人工智能产品使用过程中要倡导使用规范,坚持伦理自律。自觉遵守相关法律法规,坚守伦理道德底线,确保输入的内容与使用的内容都符合规范,禁止非法获取、披露、利用个人信息和隐私、商业秘密。同时,提供真实身份信息,便于平台管理与违法追究,从而加强伦理道德建设,形成网络信息平台的伦理自律。

6. 结论

总体而言,作为一项颠覆性技术,人工智能的应用不仅改变了人类的生产生活方式,而且引发了新一轮产业变革和社会变革。未来,人工智能将继续高歌猛进,在促进人类社会进步、持续拉动经济增长的同时,也不断实现自身的升级与完善。因此,只有守住人工智能的人文精神与伦理底线,聚焦人工智能伦理困境,坚持用马克思主义科学技术思想把准发展方向,才能不断推动人工智能持续发展,确保其以人为本、向善而行、服务于人,为建成有人文关怀的智能社会提供条件。

参考文献

[1] Rolf Pfeifer, Josh Bongard. 身体的智能[M]. 俞文伟, 等, 译. 北京: 科学出版社, 2009: 18.
[2] 杨学山. 智能原理[M]. 北京: 电子工业出版社, 2018: 129.
[3] 中国电子技术标准化研究院. 2018年人工智能标准化白皮书(附全文) [EB/OL]. https://www.askci.com/news/chanye/20180122/140250116560.shtml, 2018-01-22.
[4] 李德毅. 人工智能:社会发展加速器[N]. 中国信息化周报, 2018-02-05(07).
[5] 何江新. 强人工智能政治伦理的不确定性之中国方案[J]. 甘肃社会科学, 2020(5): 53-60.
[6] 李伦. 人工智能与大数据伦理[M]. 北京: 科学出版社, 2018: 199.
[7] 李晓理, 张博, 王康, 余攀. 人工智能的发展及应用[J]. 北京工业大学学报, 2020, 46(6): 583-590.
[8] 哈里∙亨德森. 人工智能——大脑的镜子[M]. 上海: 上海科学技术文献出版社, 2008.
[9] Odescalchi, E.P. (1958) Can a Machine Think? School Science & Mathematics, 58, 667-671.
https://doi.org/10.1111/j.1949-8594.1958.tb08103.x
[10] 尼克. 人工智能简史[M]. 北京: 人民邮电出版社, 2017: 6.
[11] 范向民, 范俊君, 田丰, 戴国忠. 人机交互与人工智能: 从交替浮沉到协同共进[J]. 中国科学(信息科学), 2019, 49(3): 361-368.
[12] 梁迎丽, 刘陈. 人工智能教育应用的现状分析、典型特征与发展趋势[J]. 中国电化教育, 2018(3): 24-30.
[13] 赵秉志, 詹奇玮. 现实挑战与未来展望: 关于人工智能的刑法学思考[J]. 暨南学报(哲学社会科学版), 2019, 41(1): 98-110.
[14] Newborn, M. (2013) Deep Blue: An Artificial Intelligence Milestone. Springer Science & Business Media, New York, 44-46.
[15] 周中元, 等. 深度学习原理与应用[M]. 北京: 电子工业出版社, 2020: 9.
[16] 肖睿, 肖海明, 尚俊杰. 人工智能与教育变革: 前景、困难和策略[J]. 中国电化教育, 2020(4): 75-86.
[17] Adiguzel, T., Kaya, M.H. and Cansu, F.K. (2023) Revolu-tionizing Education with AI: Exploring the Transformative Potential of ChatGPT. Contemporary Educational Technology, 15, Article No. ep429.
https://doi.org/10.30935/cedtech/13152
[18] Mhlanga, D. (2023) Open AI in Education, the Responsible and Ethical Use of ChatGPT towards Lifelong Learning.
https://doi.org/10.2139/ssrn.4354422
[19] 郑志峰. 人工智能时代的隐私保护[J]. 法律科学(西北政法大学学报), 2019, 37(2): 51-60.
[20] 马克思恩格斯文集(第4卷) [M]. 北京: 人民出版社, 2009: 269.
[21] 马克思恩格斯文集(第1卷) [M]. 北京: 人民出版, 2009: 156.
[22] 马克思恩格斯选集(第2卷) [M]. 北京: 人民出版社, 2021: 774.
[23] 艾志强, 沈元军. 论科技风险相关社会主体间的认知差异、成因与规避[J]. 理论导刊, 2014(4): 95-97.
[24] 阙天舒, 张纪腾. 人工智能时代背景下的国家安全治理: 应用范式、风险识别与路径选择[J]. 国际安全研究, 2020, 38(1): 4-38, 157.
[25] 国家互联网信息办公室关于《生成式人工智能服务管理办法(征求意见稿)》公开征求意见的通知[EB/OL]. 中国网信网. http://www.cac.gov.cn/2023-04/11/c_1682854275475410.htm, 2023-04-11.