常设专题

数据智能的算法权力及其边界校勘

 段伟文

 

内容摘要  在当前大数据与人工智能的应用中,数据智能及其算法对人的行为与社会生活的调节作用日益广泛和深远。它们既带来了算法时代与智能化社会的愿景,也导致了诸多对人的行为与生活的不当干预,甚至被称为“数学杀伤性武器”。但人们真正应该面对的问题是如何使数据和算法成为人的技术伴侣,探寻通过主体的自我治理之道构建算法时代的生活策略。为此,一方面应把握基于世界数据化框架的世界制造的历史脉络;另一方面应厘清算法权力内在的政治型构。在此基础上,通过基于主体的能动性的缠斗,可以同时实现主体的自我治理及其对算法权力边界的校勘。

关键词  算法权力技术伴侣世界的数据框架自我治理缠斗

作者  段伟文,中国社会科学院哲学研究所研究员。(北京100732

基金项目  国家社科基金重大项目“智能革命与人类深度科技化前景的哲学研究”(17ZDA028

 

对于我们所生活的时代,描绘社会发展趋势类的畅销书有很多内涵相近的提法:“大数据时代”“算法时代”“人工智能时代”“智能化社会”,等等。鉴于社会与时空的加速流变,这种冠名难免以偏概全,但“看似”毋庸置疑的是:随着大数据与人工智能的发展,在我们的世界之上出现了一个与之紧密交织的数据世界,大数据和智能算法等数据智能日益成为与人形影相随,乃至让人须臾不可离的存在,一种以数据和算法为技术伴侣的文化正呼之欲出。由此,一种正在浮现的未来情境是,沿着数据智能这一历史性桥梁,人类“似乎”终将全面步入智能社会。在此,之所以加了“看似”和“似乎”两个不置可否的形容词,因为不论是大数据时代和算法时代还是人工智能时代和智能化社会之类的社会政治话语,如果不加反思和质疑地接受和使用,实际上意味着将其视为某种“社会必然性”的展开,亦往往表明了对其预设的价值取向的屈从或默认。

尽管诸多数据智能算法不乏神奇之处,但各种数据的量化采集有其前提和假定,算法本身也并非纯粹客观的数据处理手段,而存在诸多不透明的因素。这些介于明言与暗含之间的因素凝聚着日常生活与社会生活的微观政治结构,并不可避免地负载了复杂的利益分配、价值取向和权力格局,必然蕴含着目的上的政治旨趣、过程中的政治考量和后果上的政治意谓。要想理解当前人工智能最普遍的应用,即数据智能对当下与未来社会的影响,首先必须把握算法——基于数据的知识挖掘、意义解读与操作控制机制的本质,打开算法的黑箱,厘清数据画像等数据智能应用所隐含的能动性(agency),剖析由此所形成的算法权力及其政治型构,进而探寻主体在算法时代的自我治理之道,谋求对算法权力必要而可行的校勘。


作为人的技伴的数据与算法


毋庸置疑,如同14世纪出现的光学透镜一样,数据驱动的人工智能正在成为人们认识世界的新透镜,而其根本原因在于信息技术的发展使得记录“事实”的数据出现爆发式的增长,日益成为与“事实”等同的平行的存在。从分子生物学和宇宙学到网络社交媒体、监控视频以及物联网数据,各种纪录世界的数字化信息已汇集成为大数据和全数据,变成了有待发掘的关于世界的“事实”乃至“全事实”。人们一般认为,数据是对存在的表征,并强调数据自己会说话。但实际上并不是这么简单,不论是用数据表征世界或人的某个方面,还是从数据中挖掘关于某个对象的知识,都有其目的性,而从数据挖掘中洞察出的知识,也难以与对数据本身以及所挖掘出的知识的诠释分开。更进一步而言,就像人们以言行事一样,人们以数据表征事实和洞察知识亦旨在开展有目的的行动。

20年来,计算机网络、移动通信以及社交媒介的发展使人的行为以数据的形式得以表征,而数据又反过来成为人们理解和把握世界并采取行动的前提和基础。在此过程中,一些可以对数据进行高效和自动化处理与分析的机器算法日益成为人类进行选择、评价等决策的基础性工具。然而迄今为止大多数算法只能在数据层面发现规律性的模式,识别有价值的差异,发现数据的相关性,却无法像人类那样理解数据所蕴含的信息语义等内涵及意义。尽管所谓的“智能算法”尚处于知其然而不知其所以然,有计算而无理解的初级阶段,但在经济发展和社会管理等现实需求的刺激下,从选举预测到预知犯罪、从保险购买到产品推荐,数据和算法在经济与社会生活的很多方面已经成为主导性的力量。由此,算法已经被视为一种社会权力[1]。而基于算法的数学模型本质上是数学应用,虽然运行这些算法和模型的计算机程序不像人类带有个人偏见,但这些数学模型的建立却基于人的见解与选择,其中难免夹杂着人的偏见和误解。数据科学家凯西·奥尼尔(Cathy ONeil)指出,这些数学模型正日益在更大的程度上影响着我们的生活,但它们却像上帝一样隐晦不明,只有数学家和计算机专家才了解模型是如何运行的,尽管模型运行的结果往往不利于穷人并令富人更加富有,人们对此却毫无争议。因此,她指出如果这些数学模型存在的偏见和危害得不到及时反馈和修正,其盲目应用有可能会加剧社会不平等之类的广泛伤害,其破坏性之大堪称“数学杀伤性武器”。[2

面对算法时代和智能化社会的全新挑战,人们必须对决定其生存方式的数据和算法展开深度的反思和全面的审度,即在揭示数据智能及其算法的内在机制和全面审视其中所涉及的各种关系的基础上寻求人与技术的相处之道。出于类似的现实考量,当代技术哲学逐渐从技术批判转向从不同的维度寻求技术与人相融合的可能性。在《将技术道德化:理解与设计物的道德》(Moralizing Technology)一书中,荷兰技术哲学家维贝克(Peter-Paul Verbeek)的核心观点虽然是技术道德化的必要性与可能性,但最后的结论则旨在构建一种与人相伴的技术(accompanying technology),并认为人们应当珍视技术与人的彼此交融之道,否则将会丧失为提升这一融合交织过程的品质而担负起责任的机会。沿着同样的思想脉络,我们需要认真思考的一个最基本问题是:在所谓的算法时代和智能化社会,人如何生活或生存?而其前提则是,面对无所不在的数据智能应用中的模型和算法所具有的巨大的社会权力,普通人应如何凸显其能动性的力量,以保持其自主性而成为自身生活的主人?仅仅将基于算法的数学模型斥为导致社会压制与不平等的力量,除了给这种新技术贴上一种不可逆转的巨大力量的标签之外,并不能为人们提供数据智能时代所必须的生活策略。恰如维贝克所倡导的那样,人真正要面对的切近的问题是:如何在人与技术的关系中型塑我们的存在?具体而言,数据智能及其算法何以成为人的技术伴侣(accompanying technology?

首先,可以对数据智能背后设计者的本体论和认识论假定展开反思,以揭示“数字拜物教”所声称的数据所蕴含的真理性与客观性的力量之实质。尽管大数据诉诸“数据自己可以说话”“相关性超越因果性”等承诺能够体现其某方面的性质,但据此我们只能获得一些可运作的功能性知识,知其然而不知其所以然。并且,如果离开了人的解释和干预等能动性作用,我们不可能全面理解基于大数据分析的各种洞察的丰富意涵。更重要的是,大数据不是一种所予(the given)或实在自身(物自体),因为尽管数据是对“事实”的记录,但“事实”中所蕴含的社会实在不可能简单地被还原为数据,不论是计算社会学还是社会物理学,都不可能成为通过数据和算法自上而下地透视一切的“上帝之眼”[3]。实际上,所谓数据智能对知识的洞察往往是为了干预其认识对象。数据智能及其算法的主导者运用数据画像等技术并非旨在以此客观地表征人的行为或社会实在,而在于影响、控制和调节被描述或评价者的行为,其中或明或暗地渗透着主导者的意图与能动性。因此,数据智能与其说是客观地表征既有社会实在的知识意义上的科学,不如说是能动介入社会实在构建的知识与行动一体的技术化科学(technoscience)。

其次,鉴于数据智能及其算法对社会实在的能动性介入与构建,可进一步从能动实在论的角度透视算法在其中所体现的能动性。由凯伦·巴拉德提出的能动实在论(agential realism)可以看到,各种机器学习和智能算法对社会实在的洞察实质上是在与异质性的社会物质聚合体(sociomaterial assemblage)的内在相互作用中重塑社会实在,或者说是通过对流变中的社会实在的能动性切入(agential cut)对其施以智能化的构建。从代码层面看,算法的基本结构是“逻辑+控制”,算法运行中通过前提和目的所涉及的前置行动(prior-to actions)和后启行动(in-order-to actions)形成了一种行动的时间流[4]。但算法所控制的行动实质是操作性(performative)的,即安德鲁·皮克林意义上的,实践的冲撞(mangle of practice)5]。因此,对算法的合理性与客观性的考察不能局限于数学与工程上的解题策略及其有效性,还应该打开算法的黑箱,追问其前置行动和后启行动中的相关的参数选取、权重选择、测量方法、解释框架等的恰当性。而这就意味着算法的客观性程度从根本上必然涉及主体意向和社会价值等方面的非数学及工程技术因素。

其三,在对数据智能背后设计者的本体论和认识论及算法的能动性反思的基础上,应该转而站在一般使用者的立场为数据智能应用及其算法确立一种新的自下而上的、情境的和基于过程的认识论与本体论基础。这一新的基础应该是关系性认识论与本体论,强调数据智能及其算法的社会应用中人的能动性与能力。当前,在大数据分析等数据智能实践中有两个方面尤其值得关注:一是作为计算对象的主体的数据化,如政府、企业、组织通过数据挖掘和大数据画像对个体或群体进行社会分类和社会信誉评分;二是旨在自我控制的自我的数据化,如运动手环等可穿戴设备与自我追踪装置(WSTT),以及由此引发的量化自我(QS)运动。在这些数据智能的社会应用中,一些大数据的倡导者将人的行为大数据视为跟矿藏一样的资源。对于数据挖掘而言,人们复杂社会生活的方方面面的数据痕迹或数据足迹汇集成了海量数据。国家、企业和组织借助这些数据痕迹或足迹可以细致入微地洞察每个人的行为模式,进而从中透视人的心理与动机。然而,从作为主体的人的能动性的视角来看,当个体的数据痕迹或足迹被收集和存储时,应该赋予那些被收集和分析的主体以相应的权利,至少应该使其知晓并理解在整个基于算法的数据处理过程中主导者的意图和目的。而那些自我追踪者,不应简单地以算法的能动者自居,而应致力于赋予其数据收集实践以意义,以超越数据拜物教(data fetishism)和对所谓数据的客观性的过度痴迷。

在反思人的能动性的基础上,作为能动者的人类主体应该更加主动地与数据及算法相交融,以此探寻数据智能与算法时代的自我治理(governance of the self)之道。为此,似乎可以引入一些全新的生活伦理观念——作为软抗拒(soft resistance)的自我伦理(self-ethics)。但问题是,这一理想化的伦理策略是否具有现实性?而对此问题的回答必须对致使数据智能与算法得以出现的世界的数据化框架进行更为深入的考察。


从政治算术到世界的数据化框架


用数据刻画人和社会的内在关联并使之成为统治或治理手段的思想由来已久,它是将世界纳入数据化框架加以认识和控制的现代性统治或治理方式至关重要的环节。17世纪60年代,古典政治经济学奠基人威廉·配第独创性地开启了运用自然科学的实验方法来研究社会经济问题的探究进路,通过对大量统计材料的分析,对经济现象的内在联系展开了研究。在其著作《政治算术》中,他断言:凡关于统治的事项,以及君主的荣耀、人民的幸福和繁盛有极大关系的事项,都可以用算术的一般法则加以论证[6]。这一观念使新兴的概率论与统计学在经济、社会和政治诸领域得到广泛应用并因此不断发展,对可量化和可测量的数据的信任亦因而成为人们信任科学的客观性的主要方面。

将世界纳入数据化框架的思想是由近代自然哲学和实验哲学发展而来的,是现代科学方法和观念在社会层面的拓展,也可以说是培根鼓吹的知识与权力(人的力量)合一的一般知识观念在社会层面的应用。渗透于其中的现代科学方法实际上是一套认知与行动策略:将科学理论建立在研究对象的“第一性质”等能运用经验手段重复观测和检验的可量化性质之上。研究可量化性质及其关系,不仅可以解释和预言与研究对象相关的各种现象,还能据此对研究对象进行控制和调节,甚至生成新的对象和现象。

量化和计算不仅具有方法论与认识论意义,更为根本的是其所具有的本体论或存在论意义。正如科学哲学家纳尔逊·古德曼所强调的那样,一个东西是什么,取决于你用什么“制造”(making)了它[7]。量化和计算使得包括人在内的世界万物成为可观测、分析、解释、预言与调控的对象,为现代和晚近现代的“世界制造”(world making)提供了存在论基础。从国民身份到现代民族国家的边界、从体检标准到遗传病的筛查,可以量化和计算的数据不仅决定着世界中的各种事实,并且将整个世界纳入一种信息化的秩序之中。而这些数据之所以能将世界纳入信息化的秩序之中,关键在于数据所反映的量所代表的类型或范畴决定了认识对象的实在性。从认知实践的维度来看,社会类型与范畴是由“命名-测量”实践所制造的,也就是说它们通过“命名-测量”实践而成为可认知乃至可量化研究的存在或实在。以人的某类疾病为例,它不是等着人们去观察和发现的存在,但在人主动对其进行界定之后,就作为人的认知实践意义上的新实在而存在。对此,哈金指出“人的制造”(making up people)是动态和开放的,人具有命名的智慧,人们不断地用其发明的新范畴标识人的存在和行为[8]。

量化与计算的社会应用使现代社会对人、群体、组织和整个社会的认知、管理与调控逐渐建立在数据和计算的基础上,如泰勒的科学管理及人因工程等。特别是随着计算机、网络、数据分析和机器学习等信息通信技术的发展,通过计算机软件和算法从数据中发现人和社会的模式与差异的认知计算逐渐发展为智能化的社会认知系统。这一趋势使得数据成为个人、群体、组织和社会的基本表征与呈现形式,数据和计算因而成为现代特别是晚近现代的认知与行动的基础性操作框架。于是,可认识或可以相信其存在的事实的前提是其可数据化地呈现为知识和行动对象——包括自然和人类社会在内的世界——被纳入基于可进一步分析和预测的数据化框架。或者说,世界的数据化框架已成为现代性境遇中把握和影响事实的前提,也是人在一般意义上 “统治”世界的先在性奠基。

基于信息化和智能化的世界数据化框架既是人类现代社会所选择的“构造/解释”和“统治/治理”世界的方式,也是其所依赖的“创造/管理”价值的方式。在世界的数据化框架下,对人和社会事实的数据化表征不能简单地视为社会事实的客观呈现,而应该从实践层面看到渗透其中的能动性和视角性,并且与具体的观测和认知手段相关。也就是说,对世界的数据化表征必然伴随着对世界的能动性介入,其实质是介入性的表征。在真实的社会数据化表征活动中,从信誉评分到商品推荐,进行表征活动的主体都是有目的和目标的能动者,都有其希望解决的问题或视角,其表征活动可以形式化地刻画为:进行数据化表征的能动者A为了目的P而从特定的视角p和所选择的工具t用数据或数据模型D表征世界W。由此可见,这一活动实际上是在现有数据测量条件下的具有局限性的再现方式,是对特定事实的选择性认识(知),也必然伴随着选择性的忽视(无知)。


算法权力的兴起及其政治型构


世界的数据化框架实质上非但不具有内在的必然性,反倒不可避免地有其内在的独断性,这在更深的层面体现了发起表征与干预活动的能动者所具有的表征与透视的权力。换言之,将社会事实纳入世界的数据化框架而获得的知识,并不是一套统一的科学体系或试图确证其科学地位的知识的统一体,而是具有一定独断性的复杂的实践知识统一体——与其说是真伪科学意义上的知识体系,毋宁说属于福柯意味的话语的统一体或群集。在福柯看来,所谓话语,不仅指涉对象,而且“每种话语,就其自身而言,又建构着它自己的对象,并且把这个建构对象的过程推进到完全改变这一对象的极点……某话语的统一体并非是由对象的永恒性和独特性所造就的,而是由众多对象显露于其中并持续地在其中得到改造的共有空间所造就的。”[9]在此过程中,话语“指涉/改造”对象的的关键是实现一元化的分类,而确保这一点的是对象、表述类型、概念、理论选项等实效范畴。

在通过对数据的智能化认知计算而获得社会认知的过程中,也体现出了这种话语式的操作,其操作的执行者就是能够使计算机处理数据化信息的软件或程序,而算法则是其中可以通过执行一系列具体操作解决某类需要反复面对的问题的可自动执行的程序单元。在计算机软件或程序中,算法通常呈现为由逻辑条件和控制结构所构成的“逻辑+控制”的计算方案;在现实生活中,算法则展现出巨大而高效的选择、判断和决策的力量,各种算法会对展示在我们面前的信息进行分类、筛选和取舍,从网络搜索结果、社交网络上的好友信息、网络购物的产品推荐到流行音乐的推送和热播影视剧剧情的发展,无一不是算法运行的结果——更微妙的是“我们是谁”“我们相信什么”“我们会做什么”等“事实”也取决于此。

不论以内在的逻辑控制结构还是外在的选择与决策的力量,算法使得当下无远弗届的世界数据化框架由内到外地展示出其强大的“合理性”——日益高效、自动化和智能化的“算法理性”,这使算法在经济、社会与生活等层面得到普遍应用,形成了算法权力和基于算法权力的社会政治型构(configuration)。值得指出的是,算法权力不是宏观的政治统治权,不涉及暴力的实施和敌对性的权力争夺,而是一种普遍存在于社会运作和个人生活的“泛在”的权力关系,表现为对人或主体无处不在的行为引导和可能实施的操纵,因此,算法权力实质上是一种以治理为目标的权力关系。其中,治理不仅表现为宏观的政治结构与国家管理,而且在更一般的意义上表现为对个人和群体行为的可能的引导方式。正是在治理的意义上,算法权力通过权力关系对个人和群体行为加以有效引导,进而产生了一种新的社会政治型构。在此,“型构”一词本指计算机对初始设置的配置,运用这一隐喻,旨在刻画算法权力在社会信息化与智能化发展中体现出的具有全局性和渗透性的政治影响力。反过来说,在算法权力的政治型构中,如果没有人提出反思或试图改变、不引入能动性的调节机制,它就会按照其权力逻辑渗透于整个社会,呈现为一种独断的普遍存在(泛在)的治理形式。

由此反观前文提出的智能算法时代的自我规治及自我伦理,无疑具有理想化的色彩,或者说是为了抗拒数据化机器主宰人的生活的反乌托邦而产生的理想化的乌托邦。换言之,这一理想化的伦理策略必须面对世界的数据化框架以及基于智能权力的社会政治型构,必须直面智能算法对人的主宰——人类社会被植入了智能算法,世界因此以前所未有的自动化的权力运作方式纳入数据化框架。而不无吊诡的是:算法影响巨大却又往往是神秘莫测的。

一方面,基于算法的数据分析所产生的数据化框架对人和世界产生着决定性的影响。不论是否正确或恰当,算法和数据都在深远地影响着人的身份认同,包括对其特征属性的量化描述(生理、人格、知识、意向、情感、行为等)、言行所表现出的意义以及行动的倾向和可能性,由此所形成的数据化框架与人在其中的量化呈现存在着一种微妙的互动,进而发展出一种微妙的治理机制。以论文查重软件为例,它不仅仅是事后对抄袭行为的监测,而且已经成为框定符合其标准的原创行为的一种调控技术。

但另一方面,算法的创造者并不完全理解自己的创造物,这使算法成为一种影响人和社会的不可思议的神秘力量。构建数据化框架的主体固然是人——拥有权力、知识、资源和能力等资源优势的能动群体,但就算是专业工程师也不完全理解算法工作的原理,往往只能根据执行的效果来检验算法的好坏。在流行的深度学习中,很多算法即便对于设计者而言也变成了黑箱,而各种与每个人生活息息相关的选择、评价和决策则被编码并封装到复杂而不可思议的算法之中,在后续的软件因错误修复与调整而多次迭代之后,程序员一般不再能够理解其中的价值内涵,而且各种修补仅仅在代码层面展开,很少再回到最初的情景中考察其初衷。可以说,数据挖掘等数据智能背后的算法仿佛青铜时代的冶炼技术,而算法执行的过程堪称某种“技术无意识”。换言之,算法并不完全为其主导者和设计者所左右。

因此,考察算法权力的政治型构不仅要看包括主导者、设计者与一般使用者在内的主体的能动性及意图,更要审视执行机制与结果。简单来讲,可自动执行是算法的最大特点之一,不论算法优劣,算法权力都会在满足执行条件的情况下自动实施。就像语音识别或自动翻译软件,不管其差错率多高,一旦使用都会自动执行下去。而影响巨大却本身不透明和难理解的算法所具有的算法权力的特殊性恰在于:其主导者和设计者往往既不解释理由也不检视后果。所以,在后文要加以论述的是,审度算法权力的政治型构的关键在于从算法的执行后果出发,对其加以逆向追问以迫使其修正与改进。

尽管算法权力存在着影响与自动执行的无意识之间的吊诡与逆悖,世界似乎已无可逆转地被置于数据化框架之下,基于算法权力的政治型构得以泛在性地展开。

首先,不论是作为计算对象的主体的数据化,还是旨在自控的自我的数据化,其理论前提都是一致的。一方面,在关于人的本质以及对人的本质的认识层面(本体论—认识论层面),主张行为主义而否定自由意志;另一方面,在认识论—方法论层面,主张基于量化和算法的数据分析具有一种可以信赖的客观性——不仅不涉及任何主观性,甚至可以获得超理性的洞见(如在超理性的伴侣配对上)。

其次,基于算法的数据智能在认识世界的同时塑造世界。一方面,在数据的采集、处理和分析中,标签和自动补全等“算法分拣”机制必不可少;另一方面,这类“算法分拣”机制无疑起到了引导人们的注意力和认识意向的作用。

再次,基于算法的数据分析所运用的数据往往是去语境化(如数据的二次使用),但数据挖掘的结果又会通过虚构或揣测再语境化。一方面,去语境化的数据被用于作为对象的标签,如“某人吃过什么牌子的巧克力”被抽取为“某人与某个牌子的巧克力相关”——这实际上是一个从消除语境信息(如某人只能买到某个牌子的巧克力)到形成虚构或揣测空间的过程(如某人喜欢吃某个牌子的巧克力等);另一方面,通过去语境化而获得的关于对象的各种认识(标签)会被整合进新的语境并被重新解读。

最后,基于算法的数据分析所做出的预测实质上是“预测现在”而不是预测未来,其结果是通过控制现在而干预其未来的可能性。一方面,其所揭示的是现象层面的外在关联性而非呈现本质结构及其动力学过程的内在作用机制;另一方面,对于群体行为来说,“预测现在”意味着通过对主体能动性的引导对群体的行为进行动态干预,而这会对群体的未来行为产生十分微妙和复杂的影响。以犯罪预测软件为例,一旦算法预测某个区域的犯罪率较高而成为重点监控区域,结果会使这个区域的高犯罪率得到强化;一旦某人被预测有高犯罪风险而限制其自由,无疑会打破现有的无罪推定原则。

这种无远弗届的智能化的社会政治型构类似计算机的默认配置或缺省配置,即如果社会公众不对其提出异议,它就会按照其权力逻辑渗入整个社会并加以掌控。福柯提出的“装置”的概念有助于揭示基于算法权力的政治型构的治理策略并寻求加以改变的可能。在阿甘本看来,“装置”的核心内涵是:一个包含话语、制度、建筑、法律、警察手段、哲学命题等在内,由各种语言与非语言要素组成的异质性装置;具体的战略功能,永远置于权力关系之中;处于权力关系与知识关系交汇处[10]。在海德格尔式的现代技术批判中,“装置”可以视为座架(集置),体现了人对自然力的操纵或人对自然的形而上学僭越,其核心精神是强调存在的内在价值,其中也包括在世界之中存在的主体面对对象化操控时应该具有的内在的自由。

从科技的政治观念史来看,这种权力宰制型的装置可以追溯至培根倡导的知识即权力的观念,近四百年来,这一观念伴随着科技进步使得科技的实用理性与政治的实用理性交织成现代性权力架构的主轴,使人类理性的实用面向成为一种排他性的向度。对此,当代政治观念史家沃格林(E. Voegelin 指出,通过科学实现权力的观念有一个理性的核心:如果我们对因果关系有所认识,就能把人的行为引入因果锁链中,从而获得想要的后果。在他看来,在我们的文明中,理性—实用的部分得到了迅猛扩张,人们普遍相信:通过科学对自然进行实用主义的控制,应该也将会成为人类排他性的当务之急,以及对社会结构的排他性的决定因素[11]。据此反观算法权力的政治型构,数据智能存在的不透明、难理解以及由执行的复杂性导致的技术无意识表明算法权力并没有绝对坚实的基础,为了避免算法权力的滥用使算法沦为不受节制的“算法幻术”,应该在这些批判和反思的基础上对算法权力的边界加以必要的校勘,进而引入算法权力架构下的主体自我生活策略。


从主体的自我治理到算法权力边界的校勘


从知识和权力的实践层面来看,数据、信息、知识和智能等层面的不断发展,将使算法权力的实施成为越来越关键的治理手段,而其实施要点是引入个人和群体行为可能被引导的关系。对此,一般主体的应对思路是反其道而行之,即为了改变既有的算法权力及其政治型构,透过一般主体的能动性,构建某种自下而上的数据智能与算法权力结构,进而寻求算法时代的自我治理之道。从实践层面看,这种理想化的主体生活策略在现代资本权力架构下的可行性无疑是有限的,而且还取决于更广泛的社会政治文化境遇,如对于自主、隐私、尊严、个人权利等观念的认识等。因此,主体的自我治理必须直面的一个问题是它不可能作为一种非此即彼的方案替代既有的算法权力,而这也是由主体性的晚近现代性特征决定的。

首先,面向算法时代的主体的自我治理应与本质主义的和作为现代性的关键目标主体的自制(self-mastery)加以区分。主体的自制的本体论预设是本质主义的,这种预设使得基于算法的世界数据化框架被视为对世界(社会和主体)的本质进行的客观表征。从本质主义和表征主义出发,主体成为中心化的、理性的透明实体。但这种现代性主体因其对象化而成为一种可客观描述的对象,即便是主体自己也只能客观地面对和接受自己的本质:如“我是一个英雄”“我的精神不正常”。这种主体实际上被虚化为主体的客观投影。世界数据化框架的客观性的论证策略所依据的就是这一逻辑:一方面,不论谁通过某种科学的算法对某一社会事实进行数据分析,都会得到某种与主体无关的对世界的客观性表征——这意味着主体只能接受这些客观事实而不能改变之;另一方面,主体自身的对象化也使其在数据智能及其算法的表征中处于被动的接受者位置。数据智能及其算法所导致的问题被简化为数据模型和算法在数学和逻辑上的缺陷,算法权力的存在这一事实因此得以遮蔽,与算法权力相应的算法责任也随之豁免,相关主体的参与权更无法纳入应有反思与追问之中。

但晚近现代性对本质主义的批判却主张主体并非现代性所假定的中心化的、理性的透明实体,亦不复是行为的根源。在拉康等后结构主义的思想脉络中,主体贯穿于象征界、实在界和想象界等多元的语域之间,由此主体的位置成为一种空位——这个空位既颠覆认同,又是任何认同得以建构的条件。由此,主体成为一种历史性的存在,任何主体无法免于自我建构的过程,主体的历史就是主体建构其身份的历史。进言之,主体的自我建构是一个双重运动的过程,一方面是去中心化的运动,旨在防止固定化;另一方面通过去中心化形成的非固定性的结果产生出一种反向运动,通过创立扭结点(nodal point)而实现部分固定。类似地,维特根斯坦在其晚期语言哲学中也对理性主义的主体概念进行了批判,强调主体并非语义的根源,需要参与到各种语言游戏之中,世界才会为主体敞开。伽达默尔的解释学哲学也主张正是在语言之中,主体的视界方得以构建。

这些对本质主义的批判表明,算法时代自我治理的基础不应诉诸理性主体的自主性等抽象的规定性,而应该以主体在思想、语言和世界之间参与自我构建的能动性作为其可行性的基点。对本质主义的反思使得主体在其自身和社会实在的建构中的能动性得以彰显,不单使建构社会客观性的基础得以昭示,更揭示出主体的内在自由与外在共生关系可以并行不悖。如果将主体的能动性与葛兰西意味的霸权(hegemony)的概念结合起来,就可以将社会的客观性视为行为与权力建构的结果。受此启发,算法权力架构下的主体生活策略可以超越作为算法权力对立的替代物的自我治理,在致力于能动地改变算法权力的情况下,将主体的内在自由转化为能动而有策略的非屈从的自由,并由此与算法权力等形成相互制约与共生的权力关系。

墨菲(Chantal Mouffe)对作为霸权的政治的探讨有助于进一步厘清这种共生的权力关系的实质,进而寻求具有可行性的权力重构策略。在他看来任何秩序的建立必然涉及霸权实践:“每一秩序都是政治性的,并且它是建立在某种排斥形式之上的。总是存在另外一些被抑制的可能性,而这种抑制的可能性也可能被重新激活。某种秩序赖以建立的、社会建构的意义赖以固定的结合实践,就是‘霸权实践’。每一个霸权秩序都会受到反霸权实践的挑战——所谓反霸权实践,就是试图拆解现有秩序,以便重新设置另一种形式的霸权实践。”[12]正是由于这种霸权与反霸权实践预设了对抗的不可根除性与无限延伸性,表明这种对立不是关于合法性的敌对或“根本敌意” antagonism)的关系——在这种关系中双方是没有任何共同基础的敌人,而可能成为某种非敌对的抗争(agonism)关系——在这种关系中,尽管双方都承认他们的冲突不存在合理解决的可能,但会承认其对手的合法性。换言之,双方是对手(adversaries)而不是敌人,尽管相互冲突却都认同依然属于共同的政治联合体[13]。从这一观点看,算法权力中主导者、设计者等施动者与一般用户等受动者之间的权力冲突,其中的权力关系既不是治理的实施者决定一切的绝对统治与奴役的关系,亦非全面对峙的敌对关系,而是相互处于永恒的挑衅和争斗状态的缠斗或争胜性关系。

进一步从元政治的角度来看,一个社会的政治型构建基于权力博弈,而权力博弈可以简化为控制与抵抗两个对立的面向。控制的一方要么回避讨论而使其逻辑前提与实际运作变成不言而喻的应然之物,要么诉诸社会必然性和绝对性的纯粹伦理原则为其合理性与合法性背书;抵抗的一方则大多主张开启讨论,并质疑控制的逻辑。因此,作为抵抗者的马克思从他所理解的社会必然性和纯粹伦理原则——类性真理出发系统阐释了解放政治,哈贝马斯从交往理性入手探讨了如何构建商谈政治,而被巴迪欧誉为抵抗哲学家的康吉莱姆(Georges Ganguilhem)的“依靠逻辑来抵抗”,则意味着与所谓社会必然性和纯粹伦理原则的两重分裂。在巴迪欧看来,基于逻辑的抵抗的两重分裂是为了给偶然性的选择留下可能性:首先是其同社会必然性的分裂,这种社会必然性会让偶然性消融在通过历史社会学来理解的集体性再现之中;其次是同纯粹的道德律令的分裂,这种道德律令将偶然性消解在外在于其所在的具体情境的决策学说中[14]。实际上,保留偶然性或对偶然性的选择权既无法通过群体客观性或主体间的共识性产生,也不能从主观性或主体性的维度来理解。它内在于主体的行动过程之中,必须通过主体的能动性才能实现。更重要的是,对能动性的具体内涵是在行动中通过对能动者(agents)的赋权(empowerment)动态地建构起来的。

由此,实现算法时代自我规制的基本政治伦理策略是通过对能动者的赋权对权力边界加以校勘。选择此策略的原因在于:一方面,不论是直接的政治对抗(包括捣毁机器的卢德主义)还是后现代意味文化拒绝,完全敌对的行动非但不能从根本上撼动其对立面所设置的权力关系,而且意味着在这些权力关系的施展过程中放弃了有效果的抵抗,与实质上的屈从相去不远;另一方面,面对无远弗届的基于算法的世界数据化框架,通过引入能动性而形成的权力调整并非原初意义上的野蛮暴力或敌对力量,而是具有治理意味的行为引导,即对个人或群体行为的可能性加以组织、调控和规训。在福柯看来,当权力的施展意味着行为引导或他人对人的治理时,权力只能施展于自由的自主主体;也就是说,权力和自由之间并非“你死我活”的相互排斥与对峙的关系,而是复杂得多的互动,作为权力施展对象的自主主体的自由恰是权力施展的前提、条件和保障。因此,居于权力关系的核心,并不断刺激权力关系的,是自主主体抵抗的意志与不妥协的自由,将这种权力关系解读为“缠斗”(agonism)较“敌对”(antagonism)更为恰当。

在基于算法的世界的数据化框架下,鉴于算法权力具有的霸权(hegemony)使其对社会实在的构建具有固有的排斥性,这使得主体的能动性在实践层面得以赋权的关键是算法权力必要削弱或让渡,即适度祛权。但即便存在数据保护法之类的法律法规,一般社会生活层面的伦理性的祛权很难通过伦理规范的方式加以整体性解决,其伦理实践之道在于通过基于场景分析的算法权力“审计”对其边界加以校勘,在个案中努力消除不正当的算法权力。

随着大数据、机器学习、信息监控等技术的发展,各种涉及数据智能及其算法的场景成为主体生活实践的一部分。常见场景包括数据的优选、分类、关联、过滤、评分等。场景分析的要点是通过实践层面的道德冲突剖析其中由算法权力所导致的对主体权力的侵蚀,如不平等对待、歧视、侵犯隐私、数据滥用、非善意算计等。然后,可在此基础上对具体的算法权力提出具体的约束方案,消除、削减或调整其可能滥用的方面。

在算法权力的审计中,有一些共性的伦理—政治问题值得关注。其中较为重要的方面包括:包容的模式,即算法运用中各种选择、排序和优先考量背后的选择模式,包括其中存在的排斥性、倾向性以及如何准备和处理数据等;预期的循环,即算法提供者运用算法的意图,包括其所希望洞察与预见的对象,得出结论的方式以及哪些结论使其尤其感兴趣;对相关性的评判,即根据其算法哪些判据被视为与其分析相关的判据,其中哪些判据对我们缺乏透明性,它们如何影响到知识的恰当性和合法性等政治判断;算法的客观性承诺,即算法在技术上有哪些特性可以作为其无偏见性的保障,以及这些声称如何面对出现争议的情况;实践的纠缠性,即使用者如何根据算法重塑其实践,如何将算法运用到政治及各种争辩之中,甚至包括对算法自身的质疑;基于计算的公众的塑造,即基于算法的数据分析对公众的表征如何反过来影响公众自身对公众形象的感受,谁会从这些知识中获益最多。

毋庸置疑,对于算法权力的审计将是一个长期缠斗的过程,其成果取决于全社会对算法权力校勘的重要性的认知与行动。一方面,是伦理和法律上的建设,近期出台的欧盟一般数据保护条例以及各种国际组织和国家相继出台的人工智能与自动化智能系统的伦理标准的目的,都是力图制约算法权力的滥用;另一方面,要有效制衡算法权力,还必须形成强有力的社会运动,其中包括软件高手和算法专家的反制行动,如对算法权力滥用的披露,为保护和增进公众利益改进算法和数据的使用,为公众设计更具透明性和可理解性的替代性数据智能产品,等等。

 

参考文献:

1 David Beer . The Social Power of Algorithms.Information. Communication & Society, 2017,1: 1-13.

2 凯西·奥尼尔,马青玲译.算法霸权:数学杀伤性武器的威胁.北京:中信出版集团,2018.

3 段伟文.大数据与社会实在的三维构建.理论探索,20166.

4 Lucas D. Introna. Algorithms, Governance, and Governmentality: On Governing Academic Writing. Science Technology and Human Values2016,41(1):17-49.

5 段伟文.可接受的科学:当代科学基础的反思.北京:中国科学技术出版社,2014108-110.

6 威廉·佩第.政治算术.北京:商务印书馆,20141-2.

7 纳尔逊·古德曼,姬志闯译.构造世界的多种方式.上海:上海译文出版社,2008:94.

8 Ian Hacking. Making Up People. Stanford University Press,1986: 222-236.

9 米歇尔·福柯.什么是批判?.北京:北京大学出版社,201660.

10 Giorgio Agamben. What is an Apparatus. Stanford University Press, 20092-3.

11 沃林格,谢华育译.革命与新科学.上海:华东师范大学出版社:246.

12][13 尚塔尔·墨菲,周凡译.论政治的本性.南京:江苏人民出版社,201615,16-17.

14 阿兰·巴迪欧,蓝江译.元政治学概述.上海:复旦大学出版社,20156.