人工智能对文化产品选择的消极影响与破解路径
The Negative Impact of Artificial Intelligence on the Selection of Cultural Products and Cracking Path Analysis
DOI: 10.12677/ASS.2023.1212977, PDF, HTML, XML, 下载: 138  浏览: 199 
作者: 崔奥漩:上海师范大学马克思主义学院,上海
关键词: 人工智能文化产品文化选择Artificial Intelligence Cultural Products Cultural Choices
摘要: 关于人工智能对文化产品选择的消极影响与破解路径,笔者大致从三个角度加以思考,认为人工智能在选择文化产品上有三重困境:技术沉溺阻碍人的全面发展、隐私泄露威胁个人安全、精准化推送构建信息茧房,进一步分析出资本导向、制度监管体系不完善、人的主体性能力弱化是造成人工智能对文化产品选择消极影响的原因,最后探讨破解人工智能在文化产品选择困境的路径,认为只有坚持人的价值理性,完善人工智能技术、健全相关政策制度,科学管理人工智能、增强人的主体意识,正确引导人工智能,才能尽可能的破除人工智能对于文化产品选择产生的消极影响。
Abstract: Regarding the negative impact of artificial intelligence on the selection of cultural products, the author roughly considers it from three perspectives, and believes that the triple dilemma brought by artificial intelligence in the selection of cultural products includes: technological addiction hinders people’s comprehensive development, privacy leakage threatens personal security, and precise push construction of information cocoons. And we further analyze the reasons for the negative impact of artificial intelligence on cultural product selection, including capital orientation, imperfect regulatory system, and weakened human subjectivity. Finally, we explore the path to solve the dilemma of artificial intelligence, and believe that only by adhering to human value rationality, improving artificial intelligence technology, improving relevant policies and systems, scientifically managing artificial intelligence, enhancing human subjectivity, and correctly guiding artificial intelligence, to eliminate the negative impact of artificial intelligence on the selection of cultural products as much as possible.
文章引用:崔奥漩. 人工智能对文化产品选择的消极影响与破解路径[J]. 社会科学前沿, 2023, 12(12): 7172-7178. https://doi.org/10.12677/ASS.2023.1212977

1. 引言

当前的中国,可谓人工智能时代已经来临,近几年,文化领域对于人工智能等高新技术十分重视,已显示出融合发展的趋势。人工智能的技术运用赋能于文化,在客观上产生了巨大的社会效益,并推动着我国社会结构的变革。然而,任何一项技术进步都是双刃剑,在给人类带来便利的同时,也会产生一定的伤害。这就要求我们不得不以谨慎的态度来审视人工智能在文化领域的弊端。

2. 人工智能如何影响文化产品的选择

马克思主义哲学在创造性地回答物质与意识关系这一哲学基本问题的基础上解答了意识是什么,意识的基本特征以及意识的功能等问题,最终形成了关于意识问题的辩证唯物主义和历史唯物主义的科学解答。梳理马克思主义关于意识问题的回答,是探讨人工智能与意识这一问题的必然路径。

对于意识的基本界定,马克思曾经这样说过,“观念的东西不外乎是移入人的头脑并在人的头脑中改造过的物质的东西而已” [1] ,充分表明了意识和物质、思维和存在谁是本原的问题坚持了唯物主义原则。因此,意识的产生基于两个物质性前提:一个是具体的而不是抽象的人及其大脑。只有人产生之后,才有了人与世界关系的思考,才会产生意识问题。另一个是客观世界的生产生活过程,任何主观意识都是具体的历史的个人在一定的生产生活过程中产生的,因此不可避免地受到社会历史条件、文化背景、个人经历包括个人的主观心理因素的影响,因此呈现出阶级性、多样性甚至创造性等特点。正是在此意义上,才做出物质决定意识的判断,意识是客观世界的主观映像。

每一次科学技术的进步影响意识发生变化,随之在选择文化产品的方式上也会产生颠覆性变革。从智能技术的维度上来说,技术理性可能会削减人类的选择空间,人工智能在引导文化产品的选择上,会限制人的选择范围、引导选择行为;从消费场景的维度上来说,现有的文化产品从真实性、戏剧性、合法性的角度分别暴露出本真性欠缺、品质感偏低和认可度不高的问题;从消费主体的维度上来说,生活节奏的加快削弱挤压了消费主体的休闲空间,信息机制的变革造成了消费主体的畸变异化,人工智能的生产逐渐瓦解了消费主体的知觉与感觉能力。

人工智能是人们通过探究人类智能的行为规律所创造出的具有一定智能的工程系统。人脑由上千亿个神经元通过网络化和层次化的相互连接组成,是一个极其复杂的神经系统。它是通过神经细胞发送“抑制”或“兴奋”两种信号的生物电进行信息传递的 [2] 。专家们借助人脑这一特性发明出具有相似数据处理的类脑智能,也就是人工智能。他们一边试图运用神经网络建模来模拟大脑,一边用生物科技提升机器的智能。但这种物理模拟和数学模拟是无意识的机械式活动,和人类有意识的认识事物完全不同,不存在自发性。从本质上来看,人工智能是一种对人类智能的模拟,是人类智能外化的产物,不是真正的人类智能,更不能取而代之。

3. 人工智能给文化产品选择带来的三重困境

3.1. 困境一:技术沉溺阻碍人的全面发展

人工智能的发展使个体在选择文化产品时更好地发挥其主体性,也在一定程度上帮助人们节省了脑力劳动。但随之带来的结果是人们对人工智能技术产生了依赖感。过度沉溺于智能产品的使用,容易导致人们精神的空虚以及工作上的分心。比如智能手机的应用导致了不少年轻人患上了“手机依赖症” [3] ,长期沉溺于使用手机,遇到选择便马上上网进行信息查阅而不仔细思考,以此下去,这将使人们思维产生惰性,严重削弱自身的思维能力。与此同时,人们对手机使用的过度沉溺往往导致自身局限在自我世界之中,即使与亲朋好友相聚也宁愿看着冷冰冰的屏幕而不愿意与之交谈,这样对个人交往造成影响的同时也极易形成孤僻自闭的性格 [4] 。人工智能发展所带来的人们对人情冷暖感知度的下降以及自身性格形成方面的影响不容忽视。

人的全面发展是马克思在批判地继承前人的思想的基础上而提出的,不仅人的体力和智力得到全面发展,而且还包括人的社会关系、知识技能、道德品质等方面的全面发展。

人工智能使劳动者同其活动本身相异化造成人的片面发展。在活动的过程中,劳动者总是按照其目的自由的发挥他的体力与智力,并且使其得到锻炼。但是人工智能的广泛使用,使人不能全方位的发展自己,它使我们在活动中遇到问题时,首先想到的是使用人工智能,尤其是人工智能中具备自动化数据处理的专家系统,而不是想着自己动脑去解决它,这无形之中增加了人们的思维方式对人工智能的过度依赖和使自己的思维方式变得更加消极 [5] 。照这种趋势发展下去,人就会变得目光短浅,不顾长远的发展,只计较眼前的得失,这是人工智能所引发的第一重困境。

3.2. 困境二:隐私泄露威胁个人安全

人工智能的发展将进一步加剧个人隐私泄露的风险。在大数据时代,个人上网的行为都会被数据所记录下来,这些庞大数据的汇合将很有可能导致隐私的泄露。人工智能时代在数据使用环节,数据经分析能够了解到你的购物喜好等信息,加大对文化产品偏好的推送力度 [6] 。如浏览器会自动对我们经常浏览的网页信息进行收集,使用美团、淘宝、京东等app吃饭、购物时,系统也将自动保留用户的信息,进而分析出用户的购物习惯,甚至以此推测用户的个人选择偏好等。商家通过后台的数据掌握消费者消费习惯时,消费者对此可能毫不知情,这也导致消费者处于被动地位,而这些数据恰好成为了商家谋求自身经济利益的助力器。可是部分商家对这些信息会过度使用或不恰当使用,甚至泄露信息,被不法分子窃取,造成隐私严重泄露,威胁个人安全,这是人工智能所引发的第二重困境 [7] 。

3.3. 困境三:精准化推送构建信息茧房

人工智能的出现,能够根据每一位用户的数字档案进行智能推送从而形成个性化定制。在人工智能产生之前,文化选择都旨在服务个人意识,但是现在,在人工智能的“帮助”下,出现在用户主页的文化产品往往符合用户需求,但在人工智能给用户带来私人定制的同时,也会造成“信息茧房”现象,甚至出现群体极化的危险。

所谓信息茧房,就是指我们只能听到我们选择的内容和愉悦我们的内容。信息茧房”的信息传递方式营造了一个相对封闭的信息接收空间,在空间内部,信息获取呈封闭化、固定化的形式;而空间外部则呈现信息流通排异化、孤立化的现象 [8] 。人工智能一项十分显著的能力就是基于算法和大数据来采集用户信息,它可以收集用户的各类账号相关的信息,人们日常的搜索历史、浏览的网页信息等各种零碎的足迹也被收集起来,最终形成一个专属于个人的兴趣图谱,这就仿佛是用户在虚拟世界中的DNA,系统基于这些DNA,可以向用户进行个性化文化产品的推送。在这种情况下,人工智能扮演了一个信息过滤的功能,受众不喜欢的文化产品自动地被过滤掉 [9] 。在这种信息培养下,意识的主动创造力和独立思考能力会退化,这是人工智能所引发的第三重困境。

4. 人工智能在文化产品选择上产生困境的原因分析

4.1. 资本导向

尽管技术的出现早于资本,但技术的异化和技术理性的盛行,本质上离不开资本的助力——正是因为市场资本的煽风点火,人工智能才能够宰制人的主体性。正如马克思所言:“文明的一切进步,或者换句话说,社会生产力(也可以说劳动本身的生产力)的任何增长,例如科学、发明、劳动的分工和结合、交通工具的改善、世界市场的开辟、机器等等,都不会使工人致富,而只会使资本致富。”社会的运行规律以实现资本的无限增殖和利益最大化为核心,资本成为人类社会的实质主体,而人则沦为资本物化的客体和奴役、剥削的对象。人工智能时代,技术的资本化特征愈发鲜明,文化产品的创造与选择都成为其在新的生产力和生产关系。人工智能时代科技所展现出的前所未有的强大自主性 [10] ,使其掩盖人的意识的主体性,而受资本所控制的算法等人工智能技术,却主导人对于文化产品的选择。唯有参透现象背后的本质,从资本导向的根源入手,才能从源头实现对人的主体性的重建和复归 [11] 。

4.2. 制度监管体系不完善

人工智能中的异化问题与没有一套关于人工智能异化方面的科学的完整的监督管理体系有着十分密切的联系。通过查阅各国有关人工智能监管方面的文献资料,发现到目前为止不仅在我们国家,而且在国际上也没有一个完整的监督管理方案,这就会造成人工智能的发展速度跟不上其对人类社会所造成的影响程度。

人工智能是一把双刃剑,它不但为我们人类的生存与发展提供了丰富的物质基础,而且会由于它的不恰当使用给我们人类社会带来很多灾难 [12] 。如果我们在人工智能的研发与使用的中间环节欠缺富有成效的监督与管理,人工智能产品一旦进入社会就会给人类社会造成许多问题,其中异化问题就是其一。为了应对此问题,我们结合实际制定一套有效的监督管理体系,否则就会让人类会成为毁灭自身的主要原因。

4.3. 人的主体性能力弱化

马克思说:“人始终是主体” [13] 。肯定了人的主体地位,但每个现实的人成为主体是有条件限制的,取决于主体与客体之间的关系,也取决于主体地位的确立以及人在社会生产过程中认识和改造自然的能力。

在科学技术飞速发展的21世纪,人们对人工智能主体的依赖越来越严重,特别是对于购买物品方面,在做出购买选择前,人们会在互联网上查阅大量产品信息,收集不同评价,力图找到最物美价廉的产品。如果某天社会中所有人工智能产品全部消失,人类社会就可能瘫痪。在人发育成长的进程中,我们注重人主观能动性的培养,但是,现实却表明,在人类发展的进程中,人的主观性被逐渐抑制 [14] 。人工智能的发展对社会极少部分人的主体性来说是有益的,但对大多数人主体性的发展是有害的。当我们在生活中遇到困难的时候,会首先想到借助智能载体解决问题,尤其是年轻的一代人。就像小学生遇到不会的作业问题,不会想到自己钻研,而是借助手机或电脑查找答案。这样一来,就丧失了人本能的研究探索能力。

5. 破解人工智能在文化产品选择困境的路径探析

人工智能作为新时代的新兴产物,对文化产品的选择带来了挑战;而这些挑战不容易通过单一手段解决。因此,我们必须采取科学有效的措施,从多个角度进行协同治理,以最大程度发挥人工智能的积极作用。

5.1. 坚持人的价值理性,完善人工智能技术

技术治理是减轻人工智能消极影响的关键起点。算法和数据是构建人工智能的技术基础。因此,我们应当围绕这些核心技术建立和完善相应的治理体系和机制,以解决当前危机的问题。首先,我们需要改进算法技术,摆脱信息的封闭性。如前所述,算法推荐模式导致了“信息茧房”的出现,这限制了信息的自由流动,导致用户在文化产品选择方面受到固化偏见的影响,促使社群区隔的出现。为了应对这个问题,需要对算法进行内部技术修正,从源头消除危机和潜在的风险。例如,可以在算法中加入信息修正机制,提高推荐的准确性,并通过纠正信息以实现信息的多元化和合理性,从而减少偏好固化。同时,需要从技术层面提高用户的主体性,让用户能更好地管理和分析他们获得的文化产品信息,确保他们真正了解自己的兴趣和偏好,避免受到算法推荐的误导 [15] 。再次,通过技术手段构建用户偏好测试系统,使用户能够准确了解他们的兴趣爱好,主动匹配和鉴别算法推荐的信息,实现信息与用户需求的真正契合。数据技术治理至关重要,需要解决用户隐私问题,确保用户的数据得到保护。需要规范数据抓取技术标准,加强数据保密技术,建立用户数据保护的底线 [16] 。同时,数据技术治理还需要解决数据使用和数据分配问题,以确保数据使用范围受到规范,保障数据价值的平衡分配,维护技术层面的公平与平等。总的来说,要减轻人工智能在文化产品选择方面的消极影响,首先要改进人工智能技术,从内部技术角度降低不良影响。

此外,在人工智能的研发中要继续完善人类自身,坚持人性价值理念,要在智能载体中体现出人的行为。我们既要在人工智能的辅助下实现人类的解放、个性的显现、能力的强化、知识视野的拓宽,也要防止科学技术的工具理性对人的价值理性的替代,进而实现人工智能和人的全面和谐发展。

5.2. 健全相关政策制度,科学管理人工智能

规范人工智能技术发展的强制力措施就是建立与完善相关的法律法规。人工智能发展带来的隐私泄露风险与网络犯罪风险需要法律的枷锁来加以约束。“有预见的政府做两件根本性的事情。它们使用少量钱预防,而不是花大量钱治疗;它们在做出决定时,尽一切可能考虑到未来。” [17] 政府的政治规制在人工智能治理中起着至关重要的作用,可以通过预见性政策措施来强化应对危机。因此,一个有战略视角的政府机构能够在面对危机时采取强有力的政策措施。首先,要加强监管,完善相关政策制度,特别是对人工智能平台的监管。技术研发平台是人工智能的初始平台,应该加强对该平台的政治监管,在源头进行文化产品信息推动把控,使得技术研发遵循国家政策制度 [18] 。此外,应该重点关注网络信息平台,其作为文化产品选择与购买的重要阵地,对于文化产品具有重要意义。智能网络技术的不断革新和移动设备的快速普及,使得文化产品鱼龙混杂,这就造成活跃在网络平台中的文化产品购买者进行选择时,易受人工智能精准推送的影响。要有效应对危机,必须强化政治管控,实施严格规范的政策制度。同时,也需要加强对人工智能产品的政策规制,确保这些产品符合国家制度和政策导向。在这方面,政府的作用至关重要。其次,政府需要提升其应对危机的能力,增强政府的管控力度。这涉及到政府的机构设置、政策制定和执行的效率,以及政府决策的预见性和危机处理的协同性。只有通过这些措施,才能有效地化解危机,维护社会稳定和经济可持续发展。如习近平总书记所言:“各级领导干部要努力学习前沿知识,把握人工智能发展规律和特点,加强统筹协调,加大政策支持,形成工作合力。” [19] 政府部门必须不断改进技术管理,以提高其“智能监管”能力,并积极利用人工智能平台进行主流意识形态的宣传。这些措施有助于政府更好地应对挑战,确保社会的稳定与可持续发展。

5.3. 增强人的主体意识,正确引导人工智能

现阶段的矛盾点主要在于如何培养人的主体性和不断完善人工智能载体。因此,在人工智能不断飞跃式发展的大环境下,主体只有不断地进行自我完善,才能给人工智能客体树立正确的导向,使其能够沿着有利于人类发展的方向前进,消除客体主体化对人类社会的威胁。主体的自我完善则表现在始终坚持人的主体地位不动摇,要想确立人的主体地位,必须要增强人的主体性意识,让人类从迷茫中清醒过来,进而认识到自己在社会中与客体的区别和关系。人类可以利用自己的智慧建造房屋,铸造武器,发明各种技术来辅助我们更好地生存。人类可以突破大自然所赋予的有限尺度,利用智慧和工具去增加自己的能力,从而主宰万物。在这样的认识下,人类必须要从自身角度出发对自身的主体性意义进行反思,进而确立人的主体地位,增强人的主体性意识 [20] 。在实践活动中要充分发挥人的主导作用,人之所以能够成为主体是源自于其自身的主体性活动。正如马克思所认识到的那样,人是在认识和改造外部世界的实践活动中形成的主体地位。为了保证人的主体地位在人工智能参与的社会实践中不动摇,人类必须要通过不断学习新的知识和技能加强自身建设,增强自我的主体性意识,充分发挥自身的能动性全方位地控制人工智能,给予人工智能正确的引导。只有这样,我们人的主体地位才能得以巩固,主体性才能得到更好的发扬。

6. 结语

人工智能在选择文化产品上有三重困境:技术沉溺阻碍人的全面发展、隐私泄露威胁个人安全、精准化推送构建信息茧房,资本导向、制度监管体系不完善、人的主体性能力弱化是造成人工智能对文化产品选择消极影响的原因,只有坚持人的价值理性,完善人工智能技术、健全相关政策制度,科学管理人工智能、增强人的主体意识,正确引导人工智能,才能尽可能的破除人工智能对于文化产品选择产生的消极影响。

参考文献

[1] 马克思恩格斯选集: 第一卷[M]. 北京: 人民出版社, 1956, 72.
[2] 张悦, 王俊秋. 人工智能时代下文化产业的发展与展望[J]. 云南社会科学, 2021(5): 36-41.
[3] 刘锦, 刘潆檑. 人工智能时代下文化产业发展的研究综述[J]. 四川省干部函授学院学报, 2019(2): 19-21.
[4] 成素梅. 智能革命与休闲观的重塑[J]. 社会科学战线, 2019(11): 12-19.
[5] 邓欣欣. 空间视域下新时代社会主要矛盾探析[J]. 学术研究, 2019(11): 39-45.
[6] 刘培, 池忠军. 算法歧视的伦理反思[J]. 自然辩证法通讯, 2019, 41(10): 16-23.
[7] 倪弋. 网络时代, 应如何规范“算法”[N]. 人民日报, 2018-07-04(019).
[8] 李晓云, 王锋. “信息茧房”概念外延的合理性考察[J]. 青年记者, 2021(24): 35-37.
[9] 杨蓉, 唐英. 算法推荐视域下信息茧房的负效应研究[J]. 青年记者, 2021(22): 29-30.
[10] 曹静, 周亚林. 人工智能对经济的影响研究进展[J]. 经济学动态, 2018(1): 103-115.
[11] 王卫华, 杨俊. 人工智能的资本权力批判与全球经济正义的追问[J]. 广西社会科学, 2021(10): 88-94.
[12] 季冬梅. 人工智能透明性原则的制度构建: 范式选择与要素分析[J]. 科学学研究, 2022, 40(4): 611-618, 757.
[13] 马克思恩格斯马克思恩格斯全集: 第42卷[M]. 北京: 北京人民出版社, 1972: 130.
[14] 孙强. 马克思主义视野下的人工智能与人权问题探析[J]. 湖北社会科学, 2020(2): 5-11.
[15] 王岩, 李义. 马克思主义政治道德的学理透析与逻辑解读[J]. 政治学研究, 2021(5): 99-108, 158.
[16] 侯红霞, 梁欢欢. 系统思维视阈下人工智能发展的伦理困境分析[J]. 系统科学学报, 2021, 29(4): 51-55, 67.
[17] 邓鹏, 李芳, 李明晶. 人工智能时代专利制度的实践挑战与应对策略[J]. 科技进步与对策, 2022, 39(19): 105-113.
[18] 尹铁燕, 代金平. 人工智能伦理的哲学意蕴、现实问题与治理进路[J]. 昆明理工大学学报(社会科学版), 2021, 21(6): 28-38.
[19] 加强领导做好规划明确任务夯实基础, 推动我国新一代人工智能健康发展[N]. 人民日报, 2018-11-01(001).
[20] 王武斌. 人工智能对人主体性的影响[J]. 改革与开放, 2018(14): 113-114.