1. 引言
在大数据时代的兴起背景下,个体自我认知正经历着一场前所未有的数字化转变。传统的自我认知,一直依赖于我们的直观体验和社交互动,本质上是依靠自我对于现实经验的反省与分析。然而,随着数字技术的迅猛发展,我们的认知结构正受到算法技术广泛而深刻的冲击。在算法影响的环境下个体演化诞生出基于算法的虚拟自我认知镜像,这些海量数据构成了“镜像”,不仅是虚拟身份的抽象呈现,更是对实体自我的全方位表达。个体的虚拟身份与实体自我的互动不断演变,形成了数字与现实的交织关系,同时塑造了新的认知模式与架构,但这种认知的架构依然属于人类主体认知架构为基础的体系中,其认识论基础依然是人类主体的感知。
在技术的巨大幕布下,高算力算法的普及和大数据的广泛应用预示着未来新科技的降临,届时我们的行为、偏好和社交活动逐渐被数字化并转化为数据。这种数字化交互是否改变了我们的认知结构?算法是如何叙述我们的认知过程,从而塑造我们的思维方式,数据又是如何编码我们的行为,影响我们的道德决策。
正如海德格尔所强调的,技术的逐渐崛起改变了人类存在的方式,人类的存在就是技术与人的关系融合,数字技术作为其中的重要组成部分,正在重新定义个体在世界中的定位。海德格尔认为,技术将人类推向一种无所逃避的关系,使我们的存在与技术深度交织1。在这一背景下不得不思考,数字技术是如何重新构建我们的思维和行为,这些构成方式背后的局限性在哪里。
深入研究算法时代对个体自我认知的影响,探讨算法技术如何重新构建的认知的架构与之相关的伦理问题。通过对个体在大数据环境中展现进行分析,揭示数字化重构对自我认知的深远影响。数字时代,个体不再是孤立的认知主体,而是嵌入到数字化的网络中,与算法、数据以及其他个体形成复杂而微妙的关系。改变的不仅仅是对自我的理解,更是对算法下的个体认知提出了挑战。在算法构成的数字洪流中,个体如何重构自我的过程,以及这一过程对个体认知、道德和社会交往的潜在影响是否符合未来自我认知的形式发展。数字化环境如何影响个体的自我认知和社交行为,算法和数据如何塑造认知结构和道德决策,在这种放弃道德运气的环境思考下下,个体维持自我认知的独立性和主动性应当被判为合法的依据。本文意在通过对这些问题的深入分析,为理解数字时代个体自我认知的新模式提供洞察,同时为未来的研究和探讨奠定基础。随着深入算法时代,对这一领域的深思熟虑和审视变得尤为重要。
2. 自我认知的观照与消退
算法时代最典型的特征便是数据构成的数据“镜像自我”成为认知的对象,人类认知的主体由经验的审视转向对虚拟数据构成的自我审视,在这之中经验实体所包含的要素逐渐被替代和淡化,在认知过程中逐渐展现出“消退”的态势,而根植于算法技术对虚拟观照的认知,却并不能反映出自我认知的全面性。
(一) 对虚拟数据的观照
在算法切入的当代,个体行为的数字化记录与分析所形成的“数据镜像”,成为了一个关键的概念。这个概念托生于技术具身,技术拓展成为了我们身体的感官,我们感知世界的方式已经与技术密不可分2。在算法技术下的具身指的是指通过算法处理和分析,个体在数字世界中的各种活动包括社交媒体互动、在线购物习惯、甚至是搜索引擎查询所构成的虚拟反映。这种具身不等同于技术构成的数据虚拟孪生体,这种虚拟反馈成为了我们的数据躯体的观照。更像是一面不平整“镜子”,人通过它观照自己的虚拟化身3。数据镜像不仅仅是一种技术现象,它在个体的自我认知过程中承担着“反馈”的职能,这种反馈不属于纯粹的反馈,而是参杂了技术现象中的各类信息与技术特性。通过这种镜像,个体可以从另一方面看到自己的行为、偏好和社交网络的一个外化表现,这种外化在很大程度上影响着个体对自己的理解和认识。这种外化的技术具身所展现的是个体对自我认知中所偏好的一面,并不具有一种真实性,而是一种类似透过“镜面”观照自己本体的偏折性质 [1] 。
在旧形而上学中,个体的自我认知被视为一种基于内省和社交互动的过程。现如今在算法的影响下,这一过程正在经历一种转型,一种内在转向外在的认知转型。个体的自我认知不再仅仅是基于内在心理状态的探索,而是越来越多地依赖于数字化数据的反馈。在社交媒体等数字平台上,个体所获得的点赞、评论、分享等反馈成为了其自我认知的重要组成部分。个体对自己的理解和评价正在从一种主观内省的过程转向一种客观数据分析的过程4。在这一过程中个体的主观能动性被削弱,取而代之的是一种被动引导。
在算法影响下中,个体可以通过对其行为和反馈的观察来构建自己的身份和形象。这种基于数据的自我观念重塑不仅影响了个体如何在虚拟世界中呈现自己,也影响了他们在现实世界中的行为和决策。例如,一个个体可能会基于其在线活动获得的反馈来调整其现实生活中的行为,以便在数字世界中获得更积极的反馈,甚至超越在现实中得到的反馈期望。这种互动显示了数字化自我与实体自我的相互影响,以及数据镜像如何重塑个体的自我认知。
数据镜像引发的自我认知循环是算法时代的一个特征。个体在数字空间中的行为和互动产生的数据被用于塑造他们的数据镜像,而这个镜像反过来又影响个体的自我理解和行为。这种循环意味着个体的自我认知正在逐渐从一个以内省和人际交往为主的过程转变为一个以数据反馈和算法预测为主的过程。而这个过程中,技术的反馈并不具备客观性,技术带来的镜面偏折效应贯穿了整个过程,再每一次透过数据观照自己本身的时候,认知就会发生偏移,观照的行为越多,对自我的解读就会越偏离本来的自我 [2] 。这种转变不仅改变了个体如何理解自己,也改变了他们与社会互动的方式。个体过度依赖外部数据反馈来定义自己而忽视了内在价值和个人经验的重要性。导致个体认知和自我价值观的波动,特别是在社交媒体等环境中。这种转型对社会互动和群体认同产生了影响。个体会根据他们在数字空间中的表现来调整其社会行为和群体归属,从而影响社会结构和群体动态。
(二) 经验主体认知的消退
在数据镜像日益占据主导地位的今天,传统的基于实体经验的主体认知5正在经历一种转变,甚至可以说是一种“消退”。过去,个体的认知和理解是建立在直接经验、人际互动和感官感知的基础上。但在当前的算法环境中,这些基于实体的经验正在被算法驱动的数据解读所替代。个体越来越多地依赖于数字化数据来形成对世界的理解,而非传统的感官体验和社交互动。
在数据驱动的新现实中,个体的认知和决策过程越来越多地被算法预测和塑造。算法带来的迅猛快捷的认知,如同洪水吞没个人,相较于经验认知的滞后性与分析的困难,算法带来的认知碎片与“快餐式”认知理解更容易让人接受。而这种认知的缺陷也是显而易见的:不经历理性思考的认知充斥着大量无用的信息泡沫,杂乱的信息充满个体的思考,而这种思考得来的反馈并不足以绘制完善的认知框架,为了构建完整的认知框架,人会更加依赖于碎片化的认知来“充实”这一框架,由此便为恶性循环。这种现象不仅表明了个体认知方式的转变,也反映了认知主体性的消减。个体在面对由数据和算法提供的信息时,可能会失去对自身认知过程的掌控,转而被动接受由外部数据驱动的认知模式。这种转变不仅影响了个体如何理解世界,也改变了他们如何理解自己的模式 [3] 。
随着个体在数字环境中构建的自我形象越来越多地影响其现实世界的行为和决策,传统的基于实体经验的自我认知正在逐渐被数据镜像所取代。自我认知的冲突和混淆在这一阶段开始萌发,尤其是当数字化身份与现实生活中的自我存在显著差异时。个体的认知开始失调,面临需要大量思考消化的个体认知时,人会本能性的选择退避,转而选择更加容易接受和“上手”的技术,个体面临认知失调的风险,这种失调的认知模型将会一直留存在社会与个体之间 [4] 。同时,这种重构也对社会结构和人际关系产生了影响,改变了个体认知的动态和个体在群体中的角色。
在这种背景下,个体要学会在数字化重构中重新掌握导向是十分困难的,适应这一新的认知环境,这包括学习如何在数据驱动的世界中保持个人认知的主体性,以及如何在数字化身份与实体自我的互动中找到协调。这不仅是个体层面的挑战,也是整个社会在教育、心理健康以及社会结构方面需要面对的问题。
3. 算法下自我认知的被动演变的批判
在对技术如何影响认知转变的追问中,最核心的问题便是技术有何特性影响了这种转变,王伯鲁教授曾在广义技术研究范式6中提到,“技术进步的特性就是技术形态的不断丰富与技术效率的不断提高,技术形态不断地改变,追求的是以最小的付出谋求最大的利益”而在这之下催生的认知体系,必然会受到效率追逐特性的影响,而产生认知的局限性 [5] 。
(一) 技术影响下追逐认知效率的转变
算法作为认知的新介质,不仅是技术介入认知的,还是对人类思维的介入,本质上是人类思维方式演化的一个标志。这种介质演化体现在个体如何理解世界和自己的方式上。算法的高效性和准确性使得人类思维从传统的基于经验和直觉的模式,转向更加依赖数据驱动和模式识别的模式。这种转变涉及到深层次的认知结构和思维习惯的改变,人类开始习惯于通过算法呈现的数据和模式来解释世界和自身。
在算法作为认知介质的过程中,存在着一种复杂的相互作用。算法通过其高效的信息处理能力强化了人类对于快速、精准认知的能力,以精准选取的方式帮助人快速筛选有效信息 [6] 。另一方面,人类对算法的依赖也逐渐塑造了新的认知预期和思维方式,一种高效,却不完善的认知思维方式。但这种筛选的机制是一种不完善的信息筛选机制,无效信息并不意味着无用,算法筛选所去掉的无效信息实际上会包含其他的信息拓展,而对于认知的构建需要无效信息与有效信息的对照。这一点类似于硬币的正反面,一个事物的构成方式必然是双面性的结合,有了对照才会有认识,而算法在这个意义上的筛选其实并不能认同为正确的,之能称为是有“效率性”的筛选。
架具有一种“效率性”,这是由技术本质所决定的,算法视追求快速完美自我认知为唯一的要义,算法辅助人类主体搭建认知框架时并不会考虑人所处的具体环境与社会关系,算法搭建的认知仅仅是追求效率的建构。这一看法可以理解为,算法在辅助个人认知时,总是选择“两点之间,直线为最短的路径”这样的处理方式,帮助个体以最快的速度完成认知分析的情况。在这一方面来讲,算法能够提供个性化的洞见,帮助个体更好地理解自己的需求和兴趣。然而,另一方面,过度依赖算法也导致了个体认知的局限和单一化。算法的机制决定了其无法涵盖人类经验的全部丰富性和复杂性7,导致个体错过那些算法无法捕捉的知识和体验,形成固化的认知框架。
人类偏向于算法作为新认知介质的深层原因在于其提供的便利性和效率。这种偏向反映了人类对于控制和理解复杂世界的深刻渴望。算法提供了一种看似客观和权威的认知方式,这对于人类探索不确定性和复杂性充满的现代世界具有吸引力。但实际上人总是忽视技术追逐最佳效率的本性而忽视其他因素的弊端,揭示了人类对于技术能力的过分信任和依赖只会带来认知建构的缺失。
(二) 技术影响下认知建构的局限性
技术构建的认知框架可能导致个体对现实世界的理解出现断裂。这种断裂发生在算法生成的“信息泡沫”中,个体被限制在一个茧房只接触到与自己已有观点和偏好相符合的信息。削弱了个体理解复杂、多元世界的能力,导致对不同观点和生活方式的误解甚至偏见,使得认知框架与现实世界的断裂,对于世界真实的感知出现认知偏差,这种认知偏差就是技术过多介入人类主体判断的体现 [7] 。
在算法越来越多地介入认知过程中,出现了一种“算法决定论”的趋势8。这种观念认为算法能够提供最优的决策和洞见,从而减少了人类在认知和决策过程中的主动性和自主性。这种依赖性不仅限制了个体的创造力和批判性思维,也可能在更广泛的社会层面上引发对自由意志和个人责任的重新考量。对于主体个人来说,算法倾向于提供普适性的信息和解决方案,抹平个体独特的视角和经验。在这种框架下,个体的认知过程变得越来越标准化,缺乏个性化和主体性。去个性化的知识不仅限制了个体的创造力和批判性思维,也削弱了个体理解和表达自己独特视角的能力,更是将个体所处的客观随机环境中的运气成分9完全取消掉,不在乎个人的具体条件影响,评议认知的唯一标准变成了是否符合技术标准。
技术梳理的认知框架往往以数据和效率为中心,忽视了社会和文化的复杂性和多样性。这种单一化的认知模式与社会的异质性存在冲突,导致对社会群体和文化差异的不充分理解。在这种框架下,个体可能难以完全理解和欣赏不同于算法预设的生活方式和观点。产生认知“沙文主义”,从认知层面排斥与自己所不同的认知,以敌视的态度去评判与自我思维方式不同的文化,社会,甚至人类群体。
在这种背景下,会更难以形成超越技术的批判思维,过度依赖技术给出的信息与处理意见,主体性思维被牢牢禁锢在算法中,技术的风险转化为更加隐形的状态,更加难以用普通视角去发现,技术在这过程中也相应的进化了风险危害 [8] 。培养批判性思维,最重要的是需要主体接受不同的信息和案例,但算法笼罩的当下,人们接触到自己喜好与契合之外的信息变得异常困难,无论你身处何处,如果无法摆脱算法对其主体的分析,那么接受到的信息依旧是算法所给出来的“最佳答案”。批判性思维最重要的是哲学上的反思,哲学的反思必然是抽象和枯燥的,如何让人摆脱算法的“舒适区”,主动接受哲学性反思的“苦难”,成为了摆脱技术桎梏的最大难题 [9] 。
4. 算法幕布下的道德决策失衡原因批判
正如汤因比曾指出,“要消除技术的威胁只有通过对每个人的内心的革命性变革。对付技术力量所带来的罪恶,需要的不是智力行为而是伦理的审视。”10人类的智力认知在强大的算力下显得势单力薄,对于解除技术控制认知最好的路径应当是反思其技术伦理上的道德能力问题,以伦理的批判来梳理技术的缺陷。
(一) 技术影响下道德认知审视的主体转向
道德决策的焦点已转向对算法提供的信息进行道德审视。这种转变体现了从传统的以人为中心的道德决策,转向对技术介入的道德评估。算法不仅仅是信息处理的工具,它们还承载着决策过程中的道德责任和价值取向。算法像一块无形的幕布一样掩盖住了道德所审视的人类主体,对于道德决策已经从传统意义上的审视(人–道德)转化为审视道德(人–技术)11。
算法作为信息处理和决策支持的工具,在提供信息的同时,已经事先暗含了对这些信息的道德评价。算法的设计和执行过程中所采用的数据选择、优先级排序以及预设的目标,都包含着特定的道德价值和偏好。这种道德取向的偏好并非出自个体的选择,而是基于算法的选择,如果道德拥有了先验的选择,那么道德还算是道德吗?亦或者说,这是非人类的道德,而是符合技术观念的道德,人类所反思的也不再是自我本身的道德标准是否符合道德,而是转向讨论是否契合技术道德。这样评估算法提供的信息时,个体在算法幕布的遮挡下道德又该何以可能?如同翟振明教授曾提到过的“Horizon Worlds”的性骚扰事件,讨论最热烈的话题是“身体没有被真实触碰,到底算不算性骚扰?”其实此类问题对于算法幕布下的道德论断也是一样的,如果一个人的行为被算法所引导,我们批判的对象究竟是人还是技术导致的? [10]
在算法环境中,道德决策的复杂性在于评估信息的符合性不仅仅是事实的准确性问题,更是道德界定问题。算法呈现的信息可能在形式上是中立的,但内容和背景往往蕴含着特定的道德观念和社会预设。并且在对于道德的反思,如果不是从人的主体性出发,很难界定道德的伦理边界,技术从本质上并不能等同于人,技术既然作为一个“解弊”的方式,是为人转化潜能的手段,那么技术必然不具备道德的主动性。的在这种环境下,个体面临的挑战不再是如何反思一个事物是否符合人的道德观念,是如何识别和理解算法中隐含的道德观念,以及如何在算法提供的信息框架下做出符合个人道德标准的决策 [11] 。这要求个体不仅要具备对数据和信息的理解能力,还要具备批判性思维,能够识别和质疑技术背后的道德预设。在无形之中加剧了技术道德的困境,引出了新的伦理问题,即道德的审视起点是否还是人类主体。
(二) 算法偏见下的道德决策不公义现象
在算法决策的背景下,道德决策的一个核心问题是算法偏见所导致的不公义。算法虽然在表面上看起来是客观中立的,但实际上它们携带着隐性的价值判断和偏见,技术的中立性并不代表技术道德的中立,技术自始自终会隐含着技术创造者或掌控者的想法与偏见,这种偏见性在道德判断的决策过程中可能会导致不公正和歧视。
算法偏见通常源于两个方面:一是数据本身的偏见,二是算法设计者的主观偏好。在数据层面,如果算法使用的数据集不足以代表或存在系统性偏差,则算法的输出会加剧这些偏见。这取决于技术的完善程度,技术在构造初期或者革新时并未考虑全面的道德体系构建。而在设计层面,算法的设计者无意中将自己的价值观和偏好编码进算法搭建之中,这种隐藏的技术偏向并不像技术本身的缺陷容易被发现和审视,需要常年累月的技术使用和技术了解才能发现端倪 [12] 。
当算法在重要的决策过程中被应用时,如司法判决、信贷审批和招聘过程,算法偏见会导致对某些群体的不公正对待。这种情况下,道德决策不仅是关于选择什么是正确的行为,还涉及到如何确保所有群体在决策过程中得到公正对待。
面对算法偏见导致的道德决策不公义,个体和社会需要发展出批判性的思维能力。这包括对算法和数据的来源、方法和结论进行质疑,以及对算法决策过程中可能存在的偏见保持警惕。通过这种批判性的思维,可以促进算法的公正性和透明性,从而使道德决策更加公正和全面。这一要求对于技术熟悉者来说可能不是什么难事,但对于普通大众或者有技术使用鸿沟的群体来说,没有受到技术科普或者科技基础教育,很难从技术中发现歧视现象。
(三) 数据算法辅助的道德不再符合道德本身
如果道德决策过程过度依赖于算法和数据分析,那么它是否还能被视为真正的道德决策?这种依赖的数据并非传统意义上人类经验所收集的数据,而是已经被算法过滤筛选后的数据是否还符合道德本身标准?
道德决策的本质在于其个人性和主观性。通常需要个体基于自己的价值观、情感和经验来做出判断。当这一过程被算法辅助或主导时,道德决策的这些核心元素可能会被削弱。算法虽然能提供信息和建议,但它缺乏人类的情感、直觉和道德直觉。道德的评判与审视最重要的是在于对人本身的审视,而非对人之外的审视。在算法辅助的道德决策中,个体面临道德自主性的丧失与道德评判的偏差。算法的建议和预测可能在无形中影响个体的道德判断,使得更倾向于遵循算法的指导,而不是依赖自己的道德直觉和判断。这种依赖导致个体在道德决策中缺乏深度思考和自主选择。
道德(moral)一词的本身具有多种释意,但最基础的是指人类的社会意识形态是否人们共同生活及其行为的准则和规范。道德的真正含义在于其能够反映个体对复杂情境的深入理解和有意识的判断。在算法辅助的环境中,个体需要警惕不要让技术工具取代自己的道德判断。为了保持道德决策的真正含义,所以个体需要发展出能够结合技术工具和个人判断的综合道德决策能力。但算法不具备使用道德和运用道德能力的权力,其技术本身也无法做到这一点,针对于在此基础上,道德是只属于人的能力,亦或者说,技术可以拥有道德概念的存储能力,但并不具备识别道德的决策能力,即道德使用。在此意义之上,任何需要技术介入的道德,都不能称之为道德12。
为了确保道德决策不失去其本质含义,个体需要在算法辅助下保持自己的个人性和主体性。这意味着在使用算法提供的数据和分析时,将算法带来的信息视为道德主体之外的参考,而非道德主体审视的组成。个体应持续保持批判性思考,确保自己的道德判断不仅仅是算法的输出结果,而是基于个人认知深思熟虑的决定。
5. 在数据洪流中平衡自我认知
(一) 应对数据带来的认知透明化的危机
算法环境下,认知透明化是个体面临的一个主要挑战,随着个体行为和决策数据的日益透明化,传统的认知边界和隐私概念正在受到挑战。认知透明化指的是在数据丰富的环境中,个体的偏好、行为习惯和决策倾向变得对外界可见和可分析。这种透明化带来的主要挑战在于,个体可能感到自己的私人空间和内心世界被侵入,个人的思想和选择不再完全属于自己,而是成为外部数据分析的一部分。认知透明化侵蚀了个体的隐私,威胁到个体的认知自主性。决策受到数据分析和算法预测的影响,从而失去决策的自主性。这种情况下,个体在做出选择时会过于依赖数据提供的指引,而忽略或削弱了自己的直觉和判断力。认知透明化意味着主体的个体思维消散,最终所有的自我会被一个社会标准化自我的模板所替代。在此基础上,保持认知边界变得尤为重要。个体需要明确自己的思维和决策在何种程度上依赖于数据和算法,同时保持对个人内心世界和隐私的守护。这要求个体在利用数据和技术的同时,保持对自我认知的深度理解和尊重。
个体如果要摆脱透明化的倾向,需要提升自己的数据素养,理解数据收集、处理和分析的方式,以及它们是如何影响个人认知的。其发展批判性思维至关重要。这包括对收集的数据、算法的分析和得出的结论保持一定的怀疑,不盲目接受数据和算法提供的结果,保持个人决策的独立性和主动性。
(二) 塑造正确的认知观念
数据在日常生活中的普及,个体的认知方式正在发生变化。传统的基于经验和直觉的认知正在逐渐转向更加依赖数据和算法的模式。在这种变化中,存在着重新定义和塑造认知观念的需求,以确保个体能够在信息过载的环境中做出理智和合理的判断。正确的认知观念需要在数据分析和个人经验之间找到平衡。虽然数据可以提供广泛的视角和深入的见解,但它不能完全替代个人的直觉、经验和情感。个体需要学会如何将数据分析和个人经验相结合,以形成更全面和深刻的认知。经验虽不是完全可靠的,但经验带来的认知确实自我认知最好的反馈形式,从自我经验出发所总结和审视的认知观念具有可靠性,在技术抽身离去的时候,任然可以独立于技术存在。
对于认知观念的塑造,批判性思维和独立判断能力至关重要。个体不应盲目接受数据提供的答案,而是需要对数据的来源、算法的逻辑和结果进行深入的思考和质疑。通过这种方式,个体可以发展出对数据的深度理解,同时保持对信息的独立判断和批判性分析。尤其是对于技术的局限性有深刻的理解。这不仅包括对数据如何被收集和处理的知识,还包括对数据背后可能存在的偏见和误解的认识。通过对数据深度的理解,个体可以更加明智地利用数据进行决策,避免被数据和算法误导。
在所有的判断中始终以人的主体性唯一作为反思审视的标准,独立技术在人之外,避免在审视过程中以技术的现象为分析,始终以人为出发点。
(三) 保持自我,避免技术的过度侵入
技术的过度侵入削弱个体的独立思考能力,导致个体在决策和认知上过分依赖技术。这种依赖性可能导致个体的自我认知和创造力被限制。因此,个体需要意识到自我认知与技术侵入之间的界限,保持对自身思考和决策过程的控制。
保持个人的独立性和批判性思维尤为重要。这要求个体不仅要掌握技术的使用,更要理解技术的局限性和潜在影响。在保持自我、避免技术过度侵入的过程中,维护个体的创造性和个性是关键。虽然技术可以提供强大的工具和资源,但个体的创造力和个性是不可替代的。
为了有效避免技术的过度侵入,个体需要对自己使用技术的方式和目的有清晰的自我意识。这意味着个体应有意识地选择何时使用技术,何时依赖自己的判断和能力。在对于此类问题的处理中,首要任务是对技术分析进行严格的划分,清晰技术可以介入问题的界限,保证技术始终处于个体思维的掌控之下。更多的是要警惕技术霸权的形成。通过这种自我意识,个体可以更好地利用技术作为工具,而不是让技术主导自己的生活和认知。
人是脆弱又有巨大局限的,但应当时刻谨记技术与人的地位区划,人的存在决定了技术的存在,并非是技术的存在决定了人的存在,无论怎样与技术所结合,都要时刻将人类主体性的划分树立于第一位 [14] 。
6. 结语
算法对个体自我认知的影响及其复杂性,得出了几个重要的认识。首先,算法作为新的认知介质,不仅仅是技术的介入,更是对人类思维方式的根本变革。它代表了从基于经验和直觉的传统模式,向数据驱动和模式识别的现代模式的演变。这种演变在提高信息处理效率的同时,也对个体的认知结构和思维习惯带来了深刻的影响。
虽然算法提供了一种看似客观和权威的认知方式,但这种方式可能导致个体认知的局限和单一化。算法的“效率性”追求可能忽视了认知过程中的多样性和复杂性,特别是在情感、文化理解和道德判断等领域。在这种情境下,个体的自主性和独立思考能力变得尤为重要。
技术的介入并非全然利好,个体需要在利用技术带来的便利的同时,保持自身的独立思考和创造性。这要求个体不仅要掌握技术的使用,更要理解技术的局限性和潜在影响,保持对技术工具和个人判断的批判性思考,虽然做到这一点并不容易,但这却是对于未来技术融合最好的路径。在未来,面临的挑战是如何在算法的洪流中重新定义和塑造我们的自我。这不仅是个体层面的挑战,也是整个社会在教育、心理健康及社会结构方面需要面对的问题。需要发展出一种更加全面和平衡的认知策略与整个社会和个人的努力密不可分,结合算法提供的数据分析和个人的经验、情感和直觉,形成更为丰富和深刻的认知来完善人类的知识体系。
算法发展带来的浪潮是凶猛的,但人性是不容埋没的,人只有作为主体的人才是完整的,正如海德格尔在其随笔中提到的,技术的追问,归根到底还是对人的追问。
参考文献
NOTES
1参见[德]海德格尔。《技术的追问演讲与论文集》,孙周兴,译。北京:生活·读书·新知三联店2014版,P20。
2算法技术已经完全深入嵌合进入我们的身体中,随着我们的认知一同发展,构化为我们的认知边界与反馈机理,实际上算法技术已经成为一个有机体的存在。但这种存在并不等同于寄生,而是一种内殖装的方式对躯体感知的嵌合。具身(embodiment)的技术,实际上是技术的具身。
3人投射在数据上的存在更像是一种“虚拟实在”(Virtual Reality),即人在虚拟创造的世界社会中取得了实在世界的经验性,实际上数据构成的虚拟化身所观照的自我个体依旧是需要现实世界经验所参与的,并非完全的虚拟数据的复刻。
4这里的客观分析并不是形而上学中所指代的依靠纯粹理性的分析,而是针对于主体的客体化视角转变,由主体的第一人称转变为(技术–人)结合的第三人称视角,以技术理性与技术审视融合的视角替代之。
5主体认识指的是具有认识能力的人类主体在认知框架中,发挥其主观能动性和自主性对其他事物的认知识别,在这过程中是个体认识与社会认识的复杂结合。
6参见王伯鲁:《技术困境及其超越》,中国社会科学出版社2011年版,P51。
7大数据算法依靠的是采集大量样本数据进行分析,数据的分析具有择取性质,并不是全面的涵盖。针对于数据提供的全面性是非常浅薄的和较为片面的。
8这里的算法决定论和技术决定论有相似之处,但不同于强技术决定论,算法不具备完全控制人类认知的能力。算法决定论更偏向于弱决定论,人类的认知对于算法是有反作用力的。
9这里的运气成分更像是伯纳德所形容的“外在道德运气”,从这意义上来讲,算法所抛弃的不仅仅是实际层面的客观因素影响,更是将道德层面的分析变得更加纯粹功利化。参见伯纳德·威廉斯:《道德运气》。徐向东,译。上海:上海译文出版社,2007版。
10[英] A.J.汤因比、[日]池田大作:《展望21世纪:汤因比与池田大作的对话录》,荀春生等译,国际文化出版公司1985年版,第39、59页。
11这里的道德审视转向与唐伊德的诠释关系不同,道德审视的主体是人,人的对象是道德,技术在这之中并不作为的被讨论的关系,仅作为与人结合体来看待,不做独立分析。
12具体内容是指在判断道德问题时,以一致的和有区别的方式应用某种道德取向的能力。与物不同,人类能够根据社会确立的规范和价值观,对自己和他人的行为做出是非判断,这种“道德判断”或“道德决策”(moral judgment or moral decision)就是道德能力在具体实践过程中的表现 [13] 。