圆桌笔谈

之殇:智慧生活中的自主性与秩序性

——聚焦Facebook数据泄露事件



近日,Facebook数据泄露事件(亦称脸书事件)持续发酵。当以大数据技术为基础的社交媒体逐渐成为当代社会的重要结构性元素,当人类社会从对一般工具的依赖开始走向对指纹解锁、人脸识别等智慧生活的依赖,当普通民众让渡了识别性所获得的便捷性安全性的生活轨迹本身构成大数据的一部分,当传统的农业秩序和工业秩序全面转向信息时代的数据秩序,智慧生活的革命意味着社会变迁的拐点,秩序切换的混沌也不可避免导致了智慧生活的焦虑,特别有一种焦虑挥之不去,那就是大数据时代的隐私问题,深层次的问题是数据巨机器的形成和人的自由的丧失。我们如何在个体自主性与公共秩序性之间找到新的平衡?我们如何在数据权力与伦理权利之间实现新的制衡?我们如何在算法暗箱与隐私通货之间搭建新的规则?我们如何在数据暴力与多元社会之间达成新的共识?为此,《探索与争鸣》编辑部与华东理工大学社会科学高等研究院、华东理工大学社会与公共管理学院特邀相关领域的专家学者,联合召开了以智慧生活与技术治理为主题的圆桌会议,希冀在对Facebook数据泄露事件背后数据监控模式和新型风险社会深度反思的基础上,探求全球的对数据监控之规制的技术治理新政。

——主持人     




新技术演进中的多重逻辑悖逆

张成岗


个体隐私数据正在进入利益价值的社会化循环

20世纪80年代以来,互联网的快速发展推动信息社会进入到大数据时代,大数据催生了人工智能,也加速推动了互联网的演进。社交网络既是一种社交工具,也是产业和经济发展的重要平台。作为提取并售卖人们提供的信息的强大工具,社交网络同时也在把正常的对话和乏味的日常生活转变为新的商业机会。在大数据时代,广告已经找到侵入生活的另一种方式,即通过使用数据挖掘技术获取用户信息进行分析,并进一步利用获得的知识(信息)来定制推送广告。应当说,信息和数据技术的发展提供了隐私暴露的主渠道,个体化隐私数据正在进入了利益价值的社会化循环当中。近期,作为一家数据分析企业的剑桥分析公司所导致的脸书用户隐私泄露事件受到社会各界广泛关注,其影响在持续发酵。人们不禁要问:脸书数据泄露事件到底反映了一个什么性质的问题或者说大数据时代怎么了

对此,可以有多种视角的解读和诠释。公众的第一反应似乎是大数据实业界在隐私保护方面做了很少的工作,因此把公众隐私置于风险之中。情况可能并非如此!恰恰相反,不论是政府部门、大数据业界抑或理论界等相关主体,在数据隐私保护方面已经做了不少努力。应当说,该事件反映的并不是人们在表层所看到的某个产业巨头不关注数据隐私保护的问题,而是数据产业界在对数据隐私保护付出巨大努力之后仍旧出现的隐私泄露问题!

在笔者看来,真正的问题实际上是新兴技术尤其是数据和人工智能技术在新的技术时代是否正在脱离人类控制的问题!当然,毋庸置疑,这一事件的发生一定会使数据产业面临如何更好地平衡商业价值和商业伦理的问题,在产业活动中必须做到数据的合理使用和隐私保护的有机结合。人类在发展技术中能否真正实现对技术有效控制的问题,正在以一种新的形式出现在当代处于数据化生存的人类面前,我们必须更好地洞视我们的时代,对新技术时代的数据事实做整体化描述,描述作为技术事实、社会事实、伦理事实和法律事实的大数据。

我们生活在一个信息和图像数据爆炸的大数据时代,信息技术和互联网的发展正在深刻改变社会组织结构和个体行为规范,随着全球数据量的指数增长及其对人类生活的全面侵入,大数据时代来临成为全球性共识。笔者认为,大数据时代并非某种自然范畴,而是聚合了特定历史画面的社会发展模式,代表了某种强调某些特定性质并使其他性质边缘化的解释框架,时代图景往往具有丰富和多元性,每一种时代图景也都依赖于理论家思想谱系的主要元素。以大数据技术为基础的社交媒体正在演化为当代人类生活的重要结构性元素,新技术的社会运用正在不断重塑人们的生活方式,在新媒体技术所导致的生活方式变革中,用户隐私暴露与数据泄露等问题成为亟待关注的社会问题。


新技术演进的历史轨迹与时代坐标的定位

人类似乎正在进入一个隐私谈话终结的时代,越来越多的谈话和交流通过邮件、媒体和社交媒体进行。理解数据隐私及其泄露风险离不开技术社会这一重要现代性构架,我们应当把握新技术发展的历史轨迹并对时代坐标作准确定位。

对于置身其中的当代技术社会,我们可以用诸如网络社会“”信息时代“”人工智能时代“”大数据时代等理论词汇进行描述和凝练。在1962年出版的《技术社会》中,埃鲁尔详细论述了技术社会之存在、特征及其对人类历史的影响。他的技术概念拓宽了传统思想界对技术的工具性理解,展示了具有宽泛和包容性的技术图景。他认为,技术是所有人类活动领域合理得到运用并具有绝对效率的方法的总体,哪里有以效率为准则的手段的研究和应用,哪里就有技术存在。[1]

技术已经成为染指人类社会历史发展根基的统摄性力量,在一定意义上,技术决定着科学、经济及文化走向,技术已成为人类生存的新环境,这就是所谓的技术社会。历史地看,我们所处的新技术时代是以往技术社会的历史延伸和逻辑拓展,问题在于,其中到底有哪些逻辑架构的延展。

笔者认为,数据时代依旧面临着技术发展中的三重逻辑悖论挑战:一是主奴悖论,即制造者与制造物的矛盾,也就是如何避免制造物对制造者的叛逆,如何防止技术失控?二是不均衡悖论,即技术与社会制衡力量的矛盾。第三次工业革命以来,技术的指数增长与相应的社会规约、文化、伦理道德、文化系统的发展速度不匹配的矛盾更加凸显。三是工具和目的悖论,即原初意义上作为中性工具的技术与演化中成为意义源或目的本身的技术殖民困境。新技术文明中,人类还能不能作为一个主人而存在?这无疑是一个绕不过的基础性问题!

技术社会的三重逻辑悖论在当代数据社会中依然存在;同时,技术社会的众多实践又演化和呈现出不少新理论形态,比如新技术决定论:算法决定论、数据决定论;比如新伦理悖论:数据隐私与暴露、自动驾驶中的新电车难题等;比如技术恐惧论的新形态:新卢德主义、数据恐惧、算法共谋等。传统理论概念在数据时代生命力依旧存在,同时又遭遇不少新的技术事实和社会事实之挑战,在人工智能时代,新的技术产品是劳动友好型的,但新技术发展的过程往往是劳动替换型的,人工智能技术发展所导致的技术性失业的挑战已经得到各国关注。

目前,在大数据发展中,产业界、学术界以及政府机构对数据本身共识性的东西并不太多,采取的监管措施也非常多样化,实践中尚没有任何一个国家对数据的权属问题进行明确界定。按照库恩的范式理论,科学发展通常会经历从常规科学、科学危机、科学革命,再到常规科学的发展历程。大数据学科无疑具有多学科交融的特征,其发展一开始就在危机重重中行进。尽管在实践上取得了巨大进步,经历10多年发展后,大数据学科依旧处于追问是什么的阶段,不同学者、不同产业、不同国家和不同地区在一些基本问题上往往会给出不同答案。从技术发展史来看,通常在技术发展初始阶段会存在对技术的批判不足神化或美化有余的特征。跟传统技术发展不同,人们对大数据技术的发展,一开始就充满了质疑和反思,方向感并不清晰,疑惑和模糊一直存在,处于边接受,边怀疑;边怀疑,边接受的状态。也就是说,数据技术发展的风险问题一开始就受到高度关注,技术的社会批判理论必定呈现出与以往技术批判不一样的路径。


关注数据隐私,用伦理规约新兴技术发展

以现代性为基础构架的技术社会中的主奴关系、发展不均衡性以及目的工具关系中隐藏的三重逻辑悖逆正持续延展到数据社会中。同时,当代中国正在进入的大数据和人工智能社会,正面临新全球化、新工业革命、社会转型三重叠加的现实挑战。在当代社会,数据成为关键基础设施,对数据技术的治理也一直在进行,但似乎并没有避免问题的发生,一些新的技术实践活动后果在不断牵引出人类的技术忧虑。以信息科技和生命科技为核心,以新材料、新能源科技为代表的新兴科技发展极大推动了人类文明进步。由于高科技自身的高度复杂性和不确定性,加之其高投入、高收益、高风险等特征,由此带来的社会伦理问题也在日益增多。

信息技术发展伴随着两个主要技术革新,一是计算机硬件小型化,二是网络连接普遍化。图灵关于计算的理论分析为大型机诞生做了关键性准备。1950—1960年代大型计算机在关键领域的应用显示了信息技术的潜力,1970—1980年代个人机出现使得计算机进入了日常生活中。[2]从应用伦理学学科发展脉络来看,20世纪80年代开始,对于新兴科技发展前景的争论中已经涉及新兴技术对社会规范的影响。[3]20世纪90年代,在西蒙?罗格森、特雷尔?贝纳姆以及R.卡普罗等学者的推动下,计算机伦理开始关注信息社会的更大背景,而不仅限于计算机和网络伦理问题,信息伦理学成为真正意义上的现代信息伦理学。对于信息伦理学来说,不只是要以经典伦理原则来讨论信息这个对象,更要为信息时代的人类生存提供新的伦理规范。实际上,新兴技术的出现一定会导致新伦理出现,比如作为信息伦理学家的摩尔提出伦理上的摩尔法则[4]:技术革新对社会的影响越大,其产生的伦理问题越多[5];弗洛里迪等学者提出了在线生活宣言等[6]

现代世界的图像转换过程中伴随着隐私概念内容的不断丰富,我们应当明确数据隐私的基本含义,这无疑是进行数据隐私保护的基本前提。隐私是一个具有多元性的概念,可以从不同层面进行理解,其伦理内涵有一个历史演变过程。1890年沃伦和布兰迪斯在《哈佛法律评论》中首次提出了隐私权概念,将隐私视为一种权利[7];梅森进一步认为隐私是控制、收集和使用个人信息的权利”[8];科尔南则将隐私定义为某人控制其他人接触自己个人信息的能力”[9]。斯库曼认为隐私与个人生活的私密方面,与人际关系的微妙方面,与人们关心他人对所知的关于自己的特定事情的态度等密切相关。

我们可以把隐私划分为物理隐私和信息隐私两类:前者主要指对个体的物理访问或者对个人私人空间的访问,而后者主要是指访问个人可识别信息。从历史上看,隐私首先是指物理隐私,漫长的农业社会以及工业社会初期,隐私主要用来指称与个人物理空间相关的无形财产和权利。随着信息技术的发展和后工业社会来临,个人和团体信息被纳入隐私保护范围,信息隐私演化为隐私的重要方面。在网络社会中,随着信息可获取性的极大增长和大数据时代的来临,数据隐私成为重要的隐私内容。

对隐私的讨论不能仅仅从个体价值和意义层面进行,而应当将其置于特定社会环境中。大数据、人工智能、网络技术发展使社会环境发生了重要改变,人们可以足不出户地利用技术完成绝大多数社交活动,满足各种需求,生活方式的改变使得人们对待隐私的态度也发生变化。对此,赫里斯托菲季斯指出,技术环境影响人们的社交行为、各种网络社交新技术给人们提供了暴露隐私的方式和条件,鼓励人们通过暴露自己或者他人的隐私来获得人气。[10]在商业利益驱动下如果暴露部分隐私可以获利,很多时候人们愿意主动暴露隐私,从而导致隐私悖论出现。个人独立空间的缩小往往会使得个人自我展示欲望增强、隐私个体化程度不断弱化;信息资源的共享化趋势则使得个人隐私的社会化程度不断增强。

大数据时代的最大风险是我们并不了解大数据的风险。在思想探索进程中,我们必须反对认识上的决定论,不能直接假定大数据是坏的,或者大数据是好的。除了关注技术进步本身,我们应当努力描述作为社会事实伦理事实的大数据技术,应当对数据时代日常生活进行全面审视。数据时代的隐私泄露及保护问题,要求我们在技术层面重新审视技术与人的关系,发展为了人类的技术;在伦理层面发展负责任的伦理以规约新兴科技发展;在政策层面通过法律规定来进行监管,建立利益相关者广泛参与的有效网络和数据监管及保护机制。


努力提供大数据技术治理的中国方案

人们对大数据技术中存在的隐私泄露风险感到担忧,同时也对通过大数据追踪疾病、应对自然灾害,关注弱势群体的流动指标和规律等对社会带来的福祉感到兴奋。认识新兴科技风险的特征,反思当前新兴科技风险治理模式所面临的问题,研究更为合理的新兴科技风险治理模式,对于引导新兴科技走向与人为善的发展之路具有重要意义。

当前我国正努力于推进创新型国家建设,力图使科学技术更好地为社会、经济发展服务,在此情境下,反思中国当前的新兴科技风险治理模式存在的问题,建立符合中国国情的新兴科技风险治理模式显得尤为重要。数据是发展人工智能的关键基础设施,拥有针对特定领域的庞大数据集成能够成为塑造强大竞争优势的重要源头。以传统技术为规约对象的技术治理体系,并不能很好地适应网络社会发展的需要,处于现代化进程时空高度压缩和多重问题叠加阶段的中国,更需要加强对问题的反思、研判及应对,避免数据技术的泛化与滥用,充分借鉴国际经验,提供数据技术治理的中国智慧。

大数据技术治理应当做到顶层设计与行动主义相结合,应当着力解决发展失衡、治理困境、数字鸿沟、分配差距及数据隐私泄露等问题,进一步推进健康、协同和可持续发展,发挥社会与文化的想象力和洞察力,同时注重实践品格的培育。

对于大数据技术的发展既不能过度乐观,选择性简化或忽略问题的严肃性,也不能过于放大风险甚至成为技术灾变论者,因而裹足不前,阻碍技术发展。我们应当欢迎、认知和引领新技术,对新的信息和数据技术及其可塑性保持开放性心态。在大数据治理中,应当超越技术工具论假定的局限性,实现数据技术的价值回归。数据技术不仅仅是一种治理工具,大数据时代更应当成为人们未来生活的一个重要组成部分,赋权和激活治理主体,达到共享共治的目标。在此过程中要区分国家发展阶段的差异,发达国家经验不能照搬,因为不同的初始条件可以有不同未来场景。

从国际实践来看,由于各国具体情况不一,规制目标和个人数据保护水准的设定存在差异,各国在数据本土化、数据隐私保护、网络空间治理方面呈现出多样化的特征。总体而言,欧盟基本坚持更严格的数据管理,对数据发展中遇到的问题颁布不少相应法律条文进行规范,随着实践的发展,法律条文变化也比较快。比如棱镜计划曝光及美国脸书公司在欧洲非法追踪用户数据等被起诉后,欧盟法院于2015年判决2000年签署的保障跨大西洋数据流动的欧美安全港协议制度无效。美国则强调更加宽松的监管措施,坚持风险为本,努力促进技术创新。比如,20122月《消费者隐私权法案》中提出了尊重场景原则,同年3月美国联邦公平交易委员会提出简化选择原则等。

随着数据社会来临,对数据隐私保护和数据监管应更好地做到因地制宜,美国和欧盟的做法可以提供一些有益借鉴。作为数据技术发展的利益相关者,中国的数据技术发展并非向左或者向右的问题;处于时空压缩和快速现代化进程中的中国,在大数据时代和第四次工业革命中应当坚定不移地往前走。作为世界上最大发展中国家,当代中国的现代化实践发展已经超越了传统西方社会发展的模式和经验。基于西方社会发展实践的理论话语不足和难以提供行进的路标和方向,中国在大数据发展的理论和实践的不少方面已经处于引领和示范地位,中国应在新全球化进程中继续大国的责任与担当,为世界提供大数据发展的中国道路[本文系国家社科基金“‘后经验转向时代的技术伦理规约机制及模式研究、北京社科基金风险治理中专家信任构建路径及机制研究阶段性成果]


参考文献

[1]JacquesEllul.TheTechnologicalSociety.NewYork:VintageBooks1964159.

[2]MoorJH.WhyWeNeedBetterEthicsforEmerg-ingTechnologies.EthicsandInformationTechnology,2005,7(3):111-119.

[3]BainbridgeWS,RocoMC.ManagingNano-Bio-Info-CognoInnovations:ConvergingTechnologiesinSociety.SpringerNetherlands,2006.

[4][5]HerkertJR.EthicalChallengesofEmergingTechnologies.TheGrowingGapBetweenEmergingTechnologiesandLegal-EthicalOversight.MarchantGE,SpringerScience+BusinessMediaB.V.,2011.

[6]FloridiL.TheOnlifeManifesto.SpringerOpen,2015.

[7]WarrenS,BrandeisL.Therighttoprivacy.Harvardlawreview,1890,4(5):193-220.

[8]MasonRO.Fourethicalissuesoftheinformationage.MISQuarterly,1986,10(1):5-12.

[9]CulnanM.Consumerawarenessofnameremovalprocedures:implicationsfordirectmarketing.JournalofDirectMarketing,1995,9(2):10-19.

[10]Christofides,E.,A.MuiseandS.Desmarais,HeyMom,What’sonYourFacebook?ComparingFace-bookDisclosureandPrivacyinAdolescentsandAdults.SocialPsychologicalandPersonalityScience,2012,3(1):48-54.




智慧生活:个体自主性与公共秩序性的新平衡

何明升


2008年11月,IBM提出了智慧的地球理念,进而引发了世界范围内的智慧城市建设热潮。仿佛在一夜之间,人们发现自己置身于智慧生活之中。但随之而来的是,智慧起来的生活遭遇到信息技术的全面入侵,由此带来的风险人们还认识不足,本来是便利工具的技术有可能异化为全景式监控体系。在这种情况下,如何在个体自主性与公共秩序性之间找到新的平衡点,就成了十分重要而迫切的学术论题。


智慧生活焦虑折射的秩序缺位

(一)隐约可见的技术治理模式

其实,早在21世纪初就有人提出数字家庭概念,近年来各种智能生活的概念和产品也不断涌现。

随着信息网络技术的发展如移动互联网的爆发、智能电视的兴起,智能家居方式逐渐成熟,数字家庭网络正在真正走入人们生活的大门。IBM的研究认为,智慧城市由六个核心系统组成,即组织(人)、业务/政务、交通、通讯、水和能源,其智慧建立在新型信息技术支撑的基础上。从国内外智慧生活的发展趋势看,作为一种复合型网络城市,智慧城市的确可以促进经济转型升级,提高资源配置效率,改善人民生活水平。但在智慧生活逐渐普及的过程中,也在不断地强化着技术治理的新路径,一种依赖技术治理的智慧生活模式已隐约可见。

有关技术治理的思想可以追溯到培根、圣西门和孔德的专家治国理论。但真正使这种思潮上升为主流意识形态并且大大影响了社会实践的,应该是现代信息技术尤其是互联网的发展。人类进入信息社会后,知识成为新的权力基础,掌握新的智力技术的科学家、数学家、经济学家和工程师将成为统治人物”[1],进而使技术治理成为一种可以保障社会良性运行的有效途径。当人们相信数字家庭网络会逐渐成为现实并深刻改变自己的家庭生活方式的时候,就已经将技术治理之手请进了家门;当人们进一步相信智慧城市会带来全方位智慧生活的时候,技术治理的幽灵就已经挥之不去了。这场智慧生活革命不是发生在产品这个外在对象上,而是发生在社会变迁的拐点上。

(二)弥漫开来的智慧生活焦虑

智慧生活不仅需要无处不在的各类传感器,而且会产生细密无痕的海量大数据。对于任何个人而言,智慧生活所留下的丝丝痕迹就是大数据,人活着就会有行动,有行动就会留下数据,就像是住进了玻璃屋,全无隐私可言。越来越多的人感觉到,大数据存在的个人隐私问题极为突出,令人惊悚。

第一,有些智慧生活需要监控录像等图像信息,比如在平安小区建设中装设了大量摄像头,几乎所有的交通干道都存在监控装置,主要公共场所更是密布传感器。随着这类设备向更隐秘区域的扩张,大量的图像信息会直接暴露在小区保安、停车场管理员等监控人员面前,继而会带来大量的安全问题和心理压力。

第二,有些信息是被过度收集的,比如在办理电子银行注册时被强制要求填报超必要的个人信息,在安装各类APP时被强制要求过量的绑定允许,在手机接入和软件升级时被强制绑定相关服务等。这些信息会产生看似细小但数量惊人的大数据,不仅在缺少安全保护的情况下存在常态生活隐患,而且会在大数据技术的强大处理功能下产生想象不到的非常态威胁。

第三,有些做过匿名化处理的信息虽然看起来是安全的,但在黑客等专业人员面前根本不具备防御能力。现实中,大名鼎鼎的台湾电信诈骗已成为信息犯罪的国际毒瘤并且与时俱进,而这些小巫在黑客等专业大巫眼里根本就不入流,因为即使匿名数据信息也挡不住他们的踢馆行为。

第四,那些在不经意间留下的细小信息,也会因大数据超强的综合分析能力被准确定位于个人身上。大数据的超强能力就在于联系,它甚至可以把厕所里收集的排泄物信息与药品推销联系在一起。因此,看起来很不经意甚至毫无意识地留下的信息如购物小票、出行信息等,却可能引发连锁的、意想不到的大数据后果。

(三)智慧生活焦虑暴露的秩序缺位问题

智慧生活焦虑表现为一系列情绪和现象,却聚焦于社会规范的缺失,就是我们常说的失范。多年来,我们曾经用失范来描述改革开放过程中因社会急剧变迁而产生的计划经济秩序失效、市场经济秩序缺位及其所引发的种种乱象。但这一次面对的智慧生活失范更加复杂,本质上是常态生活秩序失效、新常态生活秩序缺位的断代现象。

首先,智慧生活有可能突破人类长期以来一直遵守的某些道德底线。在法律与道德、自由与秩序的关系中,伦理中的不当尤其是道德底线是社会关系中最基础的东西,其中的核心要素既是人类进化积淀下来的元规则,也是生长出高级秩序形态的生长点。现如今,这类最基础的道德底线比如保护隐私、不受监控等正在一定范围内被突破,从而考验着人类社会的修复能力。

其次,智慧生活中的一些败德行为尚无系统的法律规范加以规制。法理学的一个基本问题是总体的科学技术对于作为总体的法律制度的影响”[2]。这其中,科学技术总以超前发展为己任,而法的滞后性也是天然铸就的,因此二者的同步亲缘关系始终表现为在科技发展前沿领域的某种张力。现在,法律并没有解决数据行为模式与其法律后果之间的因果关系,因而对这类败德行为虽然可以在道德上予以谴责,却无系统性的、针对性的专门法律规范施以救济。

再次,对大数据的权利与权力问题还说不清楚。大数据虽源于常态生活,但已步入非常态领域。现实中,我们看到了太多的司法解释,试图将传统法律规范扩充和应用于对网络和大数据的规制,这些做法看起来有用,但力不从心之感处处可现。本质的问题是,我们对于数据采集、大数据分析、数据使用的权利与权力问题还说不清楚,因而形不成以权利制约权力的机制。

最后,对智慧生活技术的规制也就是对技术治理的治理尚属空白。有人称互联网是一个点击中的风险社会,认为网络时代的到来无疑是风险社会的催生婆,从实际的历史进程看,风险社会是网络时代不可避免的历史后果”[3]。中国属于互联网后发、应用大国,对智慧生活技术的规制能力还有欠缺,也没有对技术治理进行治理的意识。大量智慧治理工具已经狂奔在智慧生活的高速公路上,却还没来得及配置刹车和转向装置。


置于历时坐标下的数据秩序

(一)社会秩序的历时形态

在人类社会发展进程中,个体自主性与公共秩序性的均衡一直是社会治理所隐含的主题,其具体表现形态依托于生产力的性质并且与主导技术工具保持同步递进关系。人类取得的每一项划时代技术创新都会带来工具跃迁并将其转化为社会治理形态演进,而每一种社会治理形态的确立都是个体自主性与公共秩序性的再一次平衡。这样,我们就得到了一个考察社会秩序演进的历时性坐标。从这个视角看,人类社会已经经历了农业秩序和工业秩序,正在迈向数据秩序。所谓农业秩序,是人类在开发和利用土地资源而形成的农耕生活中,个体在非随机社会模式中的规则体系。早期阶段,不同地域的人群借助手工工具从事初级、简陋和彼此孤立的农业实践,那时的工具仅仅是人手的简单延长,因而社会治理方法是贴近地气且富有价值理性的。以这样的生产力性质和工具逻辑为基础,在古典世界,一方面是集体性自由,另一方面是个人为共同体所吞没。不过,如贡斯当所言,当时人们觉得承认个体对共同体权威的完全服从与这种自由之间没有什么不容之处”[4]

同样,工业秩序是人类在开发、利用机器和能源而形成的城市生活中,个体在非随机社会模式中的规则体系。工业革命使人类进入机器时代,越来越庞大、越来越复杂的机器工具似乎可以把人类之手延长至无限远,其时的社会治理方式是以主体性”“工具理性等所谓现代性为内核的。起初是划时代的蒸汽机技术给人类带来了工业用具,并且开始了从传统走向现代的社会转型,使社会治理形态逐渐步入现代文明阶段。到了19世纪,电气技术革命极大地提高了工具的自动化程度,人类社会治理形态也因其更高的智慧因素而步入所谓第二次工业化阶段。在这个阶段,学者们曾经将美国称之为汽车上的国家,并以汽车+高速公路的网格式执法来理解美国的社会控制方式。更深层的意义在于,“19世纪不仅是伟大的错位、解脱、脱域(disembeddedness)和根除(uprooting)的世纪,同时也是一个不顾一切地试图重新承负、重新嵌入、重新植根的伟大世纪。西方在英国和法国革命后,随着自由的成长,建构相应的新秩序便成为不能不完成的主题”[5]。通过一次次社会转型,人类确立了现代性的价值取向和社会禀赋,个体自主性与公共秩序性在城市生活方式中找到了一种新的平衡样态。

正在到来的数据秩序,应该是人类在开发、利用互联网和大数据而形成的智慧生活中,个体在非随机社会模式中的规则体系。如果说,机器时代的百年统治创造了如马克思所言,比过去一切世代创造的全部生产力还要多,还要大的历史奇迹,那么互联网时代在短短几十年就带来了社会生活范式和人类合作模式的颠覆性变革。这是因为,网络作为笼罩于全球的巨型工具已不再是人类之手的继续延长,大数据已经大大扩展了人类之脑。从历史形态上说,数据秩序是个体自主性与公共秩序性在网络化和大数据时代的又一次平衡。

(二)转型过程中的秩序混沌

在一种秩序向另一种秩序的转型过程中,必然会出现行为失范、秩序缺位现象,这是一个必经的秩序混沌状态。说到此,我们似乎还会忆起工业革命初期出现的敌视甚至毁坏机器,留恋田园和农耕生活的种种混沌现象。现在看来,人类从农业秩序向工业秩序转型过程中所面对的大机器焦虑与我们现在的智慧生活焦虑十分相像。事实上,现代社会科学恰是那一次焦虑的文明成果,许多经典著作都是对大机器焦虑和工业秩序的理论观照。

以社会学为例,当年孔德曾经把重整法国大革命后社会动乱的希望寄托于工业社会自身的秩序上。他以为,人类进步的法则遵从三阶段顺序:由军人治理国家的军事阶段,由牧师和法官施政的过渡阶段,以及由工业管理者统治的工业阶段。同样,斯宾塞、迪尔凯姆也都是在工业化进程中来观察和研究人工自然社会的。另一位社会学创始人之一韦伯,更是以其对科层制”“资本主义精神等工业社会问题的经典研究而闻名于世。在一定意义上说,社会学的诞生就是理论大师们对大机器焦虑和工业社会的研究心得。

通过这样的类比,我们似乎得到了一种启示:今天的智慧生活焦虑可能正在催生着一种新秩序,也将会产生一大批以研究数据秩序和智慧生活而立世的理论经典。以社会秩序演进的历时性坐标为参照,我们完全可以预言:目前的智慧生活焦虑是可以纾解的。

(三)自混沌而出的数据秩序

社会秩序演进史昭示我们,一种新型秩序总是出自于新旧秩序转型的混沌状态。有一个大学问家哈克为这种复杂现象创造了混序Chaord=Chaos+order)一词,用以描述那些具有自组织、自适应、非线性的复杂系统。套用哈克的理论看,智慧生活中必然存在错综复杂的混沌现象,一系列混序结构呈现出不同的张力作用,通过这些张力的相互关联和交织作用,将会在整体上涌现出未来新秩序。

数据秩序的生成是自在与自为的辩证统一。其中,自在性源于智慧生活的自组织行为,其结果是不确定的。某一种智慧生活行为,在经过参与者的相互作用以及不断适应、调节后,会从无序走向有序并最终涌现出独特的整体行为特征。同样,某一种技术治理行为,也会在众多利益相关者的反复博弈、适应、调节后,找到共识和平衡点,那便是数据秩序的产生。自为性源于社会的控制能力,它的结果是确定的。在智慧生活实践中,人是最活跃的因素,他们一定会把集体意志施加于新生活;同样,政府也不能袖手旁观,它会以强力手段施政于新秩序,因此数据秩序的可控性和可预见性也是可以期待的。

事实上,自在性与自为性在数据秩序的生成过程中是交织在一起的,二者具有功能上的互补关系,共同促成智慧生活和数据行为的有序化。如吉登斯所言,规则类似于一种程式或程序,一种关于如何行事的想当然的知识”[6],这种程式既可以是外在的规则内化于行动者的实践意识中的,也可以是行动者在情境中的创造。从目前的情况看,智慧生活既有混沌的一面,但也在掌控之中。


迈向新秩序的几个关节点

(一)数据秩序的理论框架

任何一种秩序类型都需要在理论上解释得通,并且能够指导社会实践。目前,我们所熟知的一些理论框架如国家与社会理论、政府-市场-社会三分框架、科层制理论、生产力与生产关系理论等,都能够在一定程度上说明工业秩序。它们的共同特点是,一方面都不追求对前工业秩序的解释;另一方面都面临着后工业秩序的挑战。可见,理论在秩序演进的历时性坐标下也是阶段性的、可进化的。

智慧生活不仅超出了工业秩序的理论视野,而且呼唤着数据秩序的理论创新。在一定意义上说,构建数据秩序的理论框架是纾解智慧生活焦虑、走向新型社会秩序必须要跨越的一座高山之巅,是逃避不掉的一次理论大考。在目前可见的一些新理论如全球治理理论、命运共同体理论中,虽能体味到其应对数据秩序的努力,但解释力终有不逮。

在成熟的理论体系中,作为思维形式的概念具有决定性的意义,而数据秩序需要一个全新的概念体系。以此为基础,还需要发展出一整套关于数据秩序的一般原理。当然,既有的秩序理论作为人类文明的成果,有许多仍可以沿用入网络和大数据社会,但也有许多需要进行重新诠释甚至废弃。因此,需要在信息文明的新视角下,对现有的秩序理论进行扬弃和再造,并在深入研究的基础上提出数据秩序的理论框架。

(二)技术治理的公约化伦理

社会生活中的基础伦理是在人类进化中积淀下来的元规则,也是生长出高级秩序形态的生长点。但是,作为基础伦理的元规则还只是内核,需要找到契合时代特征的呈现方式。具体到智慧生活时代,我们需要共享一些最基本的伦理,并将其转化为技术治理的基础理性,进而上升为被广为接受的公约化原则。从过程上看,智慧生活方式的逐渐形成必然伴随着基本理性规则的创生,那些携带人类元规则基因并获得成功的行为规范会被普遍效仿并随时间推移占据主导地位。从功用上看,能够发展起来并被固化下来的公约化原则承担着非常重要的治理职能,相关的戒律、要求及制度创新都源于共同准则的相互性逻辑,体现了社会的自组织能力。

最基础的智慧生活理性,往往肇始于形形色色的智慧APP和智慧社区的基本行为准则,尤其是那些不成文的行为准则。以此为基础,可以发展出两类重要的公约化理性:一是用以约束全体社会成员的理性规则,具有最大的公约性,如不违法监视他人、不滥用大数据等行之有效的习惯法(CustmaryRules),以及不使用网络暴力、不泄露他人隐私等智慧生活礼仪(Netiquette)。二是用以约束智慧生活组织的理性规则,具有专业性和专门性,如网络行业伦理、网络民间组织伦理、大数据从业者伦理等,它们分别承担着所在领域的智慧生活治理职能。

(三)智慧生活环境下的规则再造

首先,要善于运用内嵌于代码的技术规则。对于高技术架构出的智慧生活而言,代码就是其内在的生存密码和存在逻辑,是需要尊重的自然法则。表面上,预先设定好的功能性工具并没有明显的治理功能,但事实上,内嵌在代码中的技术规则体现着互联网系统颇具刚性的秩序目标。我们唯有尊重代码所指示的网络技术规则,才有可能从自然王国走向自由王国。以此为基础,还要学会对自然法则进行解密并加以利用。说到底,技术始终是用于满足各种社会需要的工具,代码所展现的不过是治理技术与智慧生活相结合的当代场域。

其次,要接受技术治理逻辑下的新规则。自上世纪90年代开始,温特尔主义(WintelismWindows+Intel)在全球大行其道,并且通过改变全球生产体系和生产模式确立了一系列新规则。这类新规则契合网络化社会和智慧生活发展的技术治理逻辑,终将被普遍接受为数据秩序的基础架构。最后,要推进智慧生活规则的适恰性创制

如果说,技术治理新规则为智慧生活提供了基础架构和宏观样态,那么适恰性创制要做的,就是对智慧生活规则进行内容填充和规则细化。根据马奇的观点,社会的组织与运行逻辑存在适恰性,社会制度是相互关联的规则和惯例的集合,依据角色和情境间的彼此关系,这些制度规定了哪些行为是恰当的。这个过程要决定:情境是什么,要实现什么角色,那种情境下的那种角色的职责是什么”[7]。通过适恰性创制,可以将个体角色与智慧生活情境恰当地联系起来。

(四)智慧生活工具的驯化和治理技术的精细化

一般认为,各种新技术必须得到转化,使其从陌生的、可能有危险的东西转变成能够融入社会文化和日常生活之中的驯化之物,这就是所谓技术归化。黄嘉认为,这既是使用价值实现的过程,也是学习与赋予意义的过程,从而也是技术的社会文化价值形成的过程。技术对社会的影响和冲击必须经由技术归化的过程实现,其中技术用户发挥着关键作用。火器、造纸等技术之所以对中国和西方近代社会产生迥异的影响,其根本原因是技术归化过程的不同[8]技术驯化实际上是对技术工具所进行的社会选择过程,表现在智慧生活发展进程中则是对数据技术的社会选择和引领作用。实践中,对智慧生活工具的驯化体现为世界禀赋和民族元素的双重植入,以及由此形成的智慧生活属地特色。

与此相关联的,是治理技术的精细化。随着技术治理公约化原则的确立、数据秩序基础架构的形成,尤其是智慧生活规则细化之后,目前粗线条的智慧生活治理技术将逐渐被精细化的治理技术所取代。比如,数据采集加密技术、采集与读取分离技术、数据确权和授权技术、大数据应用限制技术等。基于这些精细化的治理技术,可以搭建起智慧生活各领域的风险识别系统、风险驾驭要则和风险监控措施,进而实现对技术治理的治理。

(五)新秩序的合法性和信任基础

数据秩序的合法性是智慧生活走向有序的关键环节。这里所说的合法性,主要不是指智慧生活的法律创制和立法程序,而是人民群众的认同程度。

应该说,规则能否发挥秩序功能,关键还在于能否得到社会的认同。为此,一要将智慧生活的理性设计和制度安排同人民群众的感性意识连接起来,使其可以感知、能够认知并且予以理解。二要在智慧生活理性化和制度化过程中始终维护人民群众的切身利益,将技术治理和智能工具赋以明确的指向性。三要将智慧生活的正式规则与非正式规则有机协调起来,努力形成稳定的数据秩序和有效的规范体系。

数据秩序的确立,最终还在于人与人之间存在足够的信任关系。在智慧生活中,信任是个体面临的一个预期的损失大于预期的得益之不可预料的事件,所作的一个非理性的选择行为”[9]。随着智慧生活的不断完善,逐渐积累起来的信任会弥散在人们的交互活动之中,支持着他们之间的交往与合作并发挥着提高交往效率的作用,继而成为新秩序生成的内在基础。事实上,唯有建立起对智慧生活的信任才可以稳定新的社会关系,消减智慧生活中的不确定性。简言之,信任是人们应对智慧生活复杂性的一个简化机制。[本文系国家社会科学基金重大项目涉信息网络违法犯罪行为法律规制研究14ZDB147)阶段性成果]


参考文献:

[1]丹尼尔?贝尔,高铦等译.后工业社会的来临.北京:新华出版社,1997375.

[2]苏力.法律与科技问题的法理学重构.中国社会科学,1999(5).

[3]庄友则.网络时代与风险社会.淮阴师范学院学报,2004(4).

[4][5]张旅平、赵立玮.自由与秩序:西方社会管理思想的演进.社会学研究,2012(3).

[6]马尔科姆?沃特斯.现代社会学理论.北京:华夏出版社,2000113.

[7]詹姆斯?G.马奇、约翰?P.奥尔森,张伟译.重新发现制度——政治的组织基础.上海:三联书店,2011160.

[8]黄嘉.技术归化:理解用户与产品关系的关键视角.自然辩证法研究,2012(1).

[9]Hosmer.L.T.Trust:TheConnectionLinkbetweenOrganizationalTheoryandPhilosophicalEthics.AcademyofmanagementReview,1995,379-403.




智慧生活的个体代价与技术治理的社会选择

邱泽奇



智慧生活的个体代价

在日常生活的发展中,人类越来越依赖工具。由广义工具支持的智慧生活已经成为了一股历史潮流。在依赖工具的发展中,人类越来越多地把规律性事件交给机器处理。最古老的,如计算,曾经,我们需要动用纸笔,即使用算盘,使用的还是人类智慧。现在我们完全交给了机器如计算器或计算机。最直观的,如信用卡还账,我们设置一个关联账户和还账规则,一旦满足规则,一个账户的钱就自动地转到了另一个账户。进一步发展是,拿着智能手机扫一扫二维码,关联账务便发生了实质性变化。在更激进的工具依赖中,日常生活的几乎每一个环节都充满了机器智慧,从家用电器、生活起居,甚至健康管理,都在让机器智慧代替人类智慧,人类对工具的依赖正在走向对智慧化的依赖。

智慧生活的初始动力是人类对便捷性的期待,这是人类本性的一部分。然而,对便捷性的获得是有条件的。在互联网转账的例子中,譬如,两个行动者(如个体)之间通过二维码转账,获得便捷性的一个前提是,把个体变成用户网络的一个节点;在此基础上,实现快捷转账的又一前提是,两个个体之间的二维码之间可以相互识别,不仅机器能读懂二维码,二维码关联利益的账户相互之间也能交易。这样,在个体、金融机构、金融监管机构等行动者之间便构成了一个网络,个体是网络中的一个节点。

对一个个活生生的人类行动者而言,成为节点的代价是让渡自己的识别性。识别性不一定意味着交易的对方认识你,而是代办你账户活动的体系识别你。同理,也识别与你交易的对方。金融机构知道你是谁,金融监管机构也知道你是谁。可要知道你是谁,不仅要在生物特征上识别你,在社会特征上也要识别你。要获得识别性,你就不得不把自己的姓名、年龄、出生地、职业、受教育程度、家庭关系,甚至指纹、虹膜等一系列特征信息,提供给如信用卡、微信、支付宝等金融机构和金融监管机构。与你交易的,和你一样,对方也要提交相同的特征信息,不然便没有与你进行交易的资格。

简单地说,如果把便捷性理解为网络节点之间的互动更多地由行动者如个体委托机器自动实现,那么,前提便是在机器与行动者如个体之间建立可信和可靠的关联。而要实现可信和可靠的关联,人类行动者就不得不让渡自己的识别性。

满足识别性的特征信息在不同场景下是不同的。在一个偏远的山村里,相互之间无需使用身份证。个体的识别性从出生的那一刻起便在逐步建构中了,待到需要识别时,众多的个体识别性早已成为了公共信息,如姓名、年龄、性别、社会关系等。可在高度互联的人类网络如10亿微信用户中,没有人有机会像你的邻居那样看着你成长。理论上,节点之间相互陌生的概率远远大于熟悉的概率。在互联网社会化应用的初期曾流行过一段话,在互联网上,没有人知道你是一个人还是一条狗。陌生人的普遍性曾经让人们以为互联网是一个去中心化的、只需要账户识别性的网络,这也是人们把网络社会称之为虚拟社会的基本依据。现实是,没有人希望自己账户里的财富去向不明。每一个节点都有同样的需求。为了满足这一需求,网络需要识别每一个参与互动的真实人类,用户也就不得不让渡自己的识别性,且不得不更多地让渡自己的识别性,从早期的姓名、年龄、职业,到现在的指纹、头像。逻辑上,对识别性的要求越严格,用户需要让渡的识别信息就越多。

识别性让渡的后果之一便是,在网络上,没有人不知道你是一个人还是一条狗虚拟社会与实体社会之间的界限正在消失。有一本书,洛丽?安德鲁斯写的,《我知道你是谁,我知道你做过什么——隐私在社交网络时代的死亡》,讲述的正是这个故事。显然,如果人们希望获得智慧生活,作为代价,就不得不让渡自己的识别性或可识别信息。


社会潮流中的个体困境

在经历了若干年的发展之后,加入智慧生活的人们越来越多地了解到:原来,机器智慧的组织和人类社会一样,也具有科层特征。在“If,then,else(如果,则,否则)的计算逻辑下,机器智慧甚至是一个完美的科层体系。在与用户的互动中,机器也对人类提出了如等级和权限等科层体系要求。以安卓手机为例,机器对权限的要求以告知的形态出现。用户在安装软硬件时,都会读到对识别信息获取和管理权限的告知,要求用户同意。只有获得用户同意,软硬件才有权获取用户的识别性。

问题是,单从技术上看,作为用户,您了解告知信息的真实含义吗?

在人类互动的发展中,告知与识别有着几乎同样悠久的历史,也经历了场景的变换。如今,人们在日常生活中最直观的体验是,在办理手机卡、银行卡时,店家都会给用户几页密密麻麻的合同。如果同意,还需要在指定的位置签字,表示已经完整阅读、理解合同条款的含义,且自觉自愿地同意。问题是,人们真的认真读过每一条款吗?真的理解每一条款涉及的业务、技术、法律责任和义务吗?事实是,绝大多数人对此都是一知半解。

具有讽刺意味的是,同样是为了便捷性,在绝大多数情况下,用户甚至不看一眼告知,便签下了自己的姓名。人们可能想象着:我不是办理此类手续的第一人,也不可能是最后一人,既然其他人没有提出异议,那就应该没有问题,也无需浪费时间

遗憾的是,在专业化分工的发展中,告知已经成为一个技术门槛越来越高的领域,以至于逐步成为一种智力暴力。从华尔街的金融产品告知,到人们身边各式各样的知情同意,智慧生活发展的几乎每一步都有告知,都需要你的同意。而几乎每一个告知都有大量人们陌生的术语、技术、责任和义务。在每一个陌生的术语、技术、责任和义务背后,不仅有人们期待的便捷性,更有人们无法预知的风险。不仅如此,不同用户对告知涉及专业知识的敏感性还有极大差异。当智慧生活把告知摆放到用户面前时,看起来给了每一位用户同等的知情同意权利,也给予了用户控制自己识别性的机会。事实则是放大了用户对告知内容真正知晓的差异性,被告知的用户越多,用户群体的极值差异就会越大,由技术能力差异产生的对告知同意的强制性也越强。

问题在于,在专业化分工日益细密的趋势下,谁可以自诩技术能力足够呢?既如此,则意味着在大多数情况下,人们的技术能力都有不足,也意味着在智慧生活环境下,用户无力保护自己识别性的自主性。何况还有更糟糕的,那就是如果用户对告知表示不同意,就不可以继续使用。

如果说智慧生活正在变成人类社会的滚滚潮流,作为用户,则不断在面临一个两难选择:要么糊里糊涂地让渡自己的识别性,承担由此可能带来的风险;要么与智慧生活绝缘。


技术治理的社会选择

既然不得不让渡自己的识别性,却又不知道让渡可能带来的风险,是不是意味着用户只能做待宰的羔羊呢?当然不是。

识别性面前,个体的困境并不是在人类进入到高度互联的网络时代才出现的,而是在人们走出村庄之时,就已经面对了。在个体成为互联网络节点之前,早已是局部社会网络的节点。个体接触陌生社会的范围越大,对个体的识别也变得越困难和越复杂。识别性,无论对个体还是社会来说,也变得越重要。

人类实践的共识是,建构公共制度来解决识别性困境。典型的制度设置如出生、户籍、教育、职称、职位、身份、社会关系等。为保证制度建设与执行的公平性、安全性和可靠性,人类将其委托给了政府。

当然,政府不是建构识别性的唯一选择,普遍存在的另一个选择是市场。人们办信用卡、开银行账户、加入商业俱乐部等,都要让渡自己的识别性。在传统市场中,识别性基本只关涉经济利益。尽管如此,由于市场是以经济收益最大化为目标的社会机制,为防止市场滥用识别性,在市场之外人类还建立了公共制度,委托公共权力作为监管方,既为市场背书,也代表社会对市场进行管束。事实上,市场的趋利特征让其始终面对着公共权力的约束。在大多数情况下,公共权力的代表就是政府。

仍以告知为例,早期的智能手机并没有向用户告知其对用户识别信息的获取,告知的出现正是公共制度监管的结果,它意味着希望建构识别性的行动者遵循着社会规则。在个体识别性让渡中,告知的出现是一个积极的发展,是对用户主导自己识别性的确认。

复杂的是,互联网技术应用的发展让市场在技术上有能力超出传统范围,脱离公共制度的监管,直接索取曾经由政府背书的识别信息,甚至也不告知对识别信息的运用。例如,当人们拿着智能手机用指纹解锁、用人脸解锁的时候,也把自己的指纹和人脸等识别信息提供给了网络,成为可以从网络获取的识别性信息,进而成为市场的数据资源来源。

如果对识别性数据资源的利用像传统市场一样仅仅关涉经济利益倒也罢了,不断披露的事实表明,它还关涉政治权力和社会秩序。市场,在技术上能力上早已超越政府,具备了整合识别性数据资源,操纵社会秩序的能力。脸书用户信息泄露事件只是冰山一角,也仅仅是开始。那么,这是不是意味着政府已经没有能力来管束市场野性了呢?

或许无需如此悲观。纵观人类的技术史(有兴趣者可以参阅查尔斯?辛格等主编的七卷本《技术史》)可以发现,市场野性的影响其实是由技术创造与应用的人类组织方式决定的,互联网技术带出的市场野性并没有超出技术内涵着的社会力量。现象是,市场在技术上有能力整合识别性数据资源和操纵人类的行为、进而操纵社会和经济秩序。实质是,运用资源的方式和范围,依然可以由社会制度约束。技术与社会之间的互动史表明,对一个合作有序的社会而言,技术从来都只是工具,对工具运用的规制才是决定技术影响社会秩序的关键因素。

简单地说,约束市场野性的源头在于社会对技术的治理。人类对技术的治理经历了一个漫长的过程,却只有两个重要转折点:金属是人类工具创造与使用的第一个转折点,稀缺性使其从一开始便是公共制度约束的对象。例如,在中国历史上,对铁的使用尽管曾经产生过激烈的争论,最终还是成为了国家管束的对象。第二个转折点是对非自然力的创造与使用。在中国历史上,涉及对非自然力的创造与使用始终是国家管束的对象,如火药。在工商为末的社会规则下,其始终是服务于民生的工具。而在西方,利用贵族们关注田产的间隙,蒸汽动力的创造与使用从一开始便成了资本的猎物,资产阶级也因其对市场力量的掌控而站上了人类历史的舞台。两个转折点分别构造了两种截然不同的工具运用方式、社会对技术治理的路径,也形成两种完全不同的社会秩序。

人类对便捷性的追逐产生了识别性让渡,越来越多的识别性让渡提供了丰富的数据资源,技术的发展为对识别性数据资源的运用提供了能力。其实,丰富的数据资源既是市场野性的资源,也是社会治理的资源;不断发展的技术既为对识别性数据滥用提供了能力,也为对技术进行治理提供了能力。

如果说人类曾经用智慧在工具为大众服务和为资本服务之间达成过平衡,现在则出现了再平衡的诉求。对识别性数据资源的技术治理,既有的人类实践虽然给我们提供了借鉴,欧洲、美国、中国有着不同的实践,却远没有达到平衡的状态,依然还在摸索之中。如果说国家权力(曾经)是武装暴力的后果,借由制度来维系,那么,技术创造与应用从来也是一种权力,在不同阶段有着不同的表现形态,当下的表现形态便是数据权力。不受约束的数据权力就是数据暴力。把数据暴力关进制度的笼子,才是让数据资源既服务于市场,也服务于社会的可持续方式。此时,社会选择的作为呼之欲出。否则,在智慧生活中要证明你妈是你妈便不会少见。

用大众意志形成的制度始终是约束暴力最有效的方式,也是技术治理的社会选择。在中国的实践中,我们观察到了针对支付宝、今日头条、百度搜索等的大众舆论,注意到了类似微信不设置已读功能中体现的是对社会规则的自觉遵循;也观察到了用国家权力约束市场野性的网联;同时,我们还看到越来越多的用户开始意识到自己识别性信息的权利意涵。事实上,在与识别性关联的智慧生活发展中,关涉的各方都在探索自己行为的边界、符合社会规则的互动模式。政府、市场、社会都在考量对识别性信息让渡与利用之间的,或许让这个达成平衡还有一个过程,值得欣慰的是中国社会的实践已经在朝着建构一个合作秩序的方向发展,当新的秩序形成之时,我们又会有新的社会规则。

罗素在《权力论》说:“……那拥有巨大机械指挥权的人,如果得不到控制,也许会觉得自己是神

——不是基督徒的爱神,而是异教的雷神和火神。




“楚门效应:数据巨机器的意识形态

——数据主义与基于权利的数据伦理

李伦


人与技术的自由关系是技术伦理学探寻的核心命题。在不同的技术时代,人与技术的自由关系问题汇聚在不同的焦点上。在机器大工业时代,它聚焦于人与机器的自由关系,在当今大数据和普适计算时代,它聚焦于人与数据的自由关系。技术异化常常与技术增进人的自由相伴而行,如何促成人与技术的自由关系,就成了技术伦理学探寻的终极目标。

Facebook数据泄露门的曝光和持续发酵,使隐私问题再度成为人们热议的话题。隐私一直是计算机伦理四大经典问题之一,自从有了普适计算、大数据和人工智能等技术,这一经典的计算机伦理问题便激发了关于更为基础的伦理问题的讨论,即人与技术的自由关系问题。对这些事件而言,隐私问题是公众关注的焦点,但隐私问题仅是冰山一角,深层的问题是数据滥用和数据侵权的问题,是人的自由的问题。隐私问题的极化可能导致数据巨机器的出现,进而导致人与数据关系的破裂、人的自由的丧失。隐私问题只是数据滥用的后果之一,数据巨机器的形成和人的自由的丧失才是数据滥用最严重的后果。

人与数据的关系是数据伦理学的核心议题,人与数据的自由关系是数据伦理的价值追求。事件的曝光使人们对这个问题有了前所未有的紧迫感,意味着我们应当加大力度治理数据隐私问题,同时应当积极建构人与技术、人与数据的自由关系。


楚门效应:数据巨机器与人的自由

大数据的伦理问题与计算时代密切相关。计算时代经历了从巨型计算到个人计算、网络计算,再到普适计算。伴随计算时代的更替,数据收集和使用经历了三阶段。数据库阶段:数据的收集和存储是离散的。网络阶段:离散存储的数据互相关联起来。大数据阶段:收集和存储的数据的类型和数量急剧增加。更重要的是,大数据便于挖掘和定位,易于对个体进行数据画像,建构关于个体的完整形象,从而使全方位全程监控个体成为可能。数据滥用等正是依托这样的计算平台和环境得以实现。因此,通过数据和算法可以轻而易举地监控和控制个体,人机关系、人-数据关系发生了逆转。

大数据杀熟现象表明,消费者自以为是的自主决定其实是被操纵的决定,而消费者对此全然不知。我们不妨将这种现象称为楚门效应。楚门效应的实质是,消费者在毫不知情的情况下其自主权遭到侵犯。在具体的网络购物场景中,消费者通过货比三家,自以为作出了最佳选择,殊不知消费者看到的价格是购物网站通过对个人数据的收集和挖掘,针对消费者进行个性化定制的价格。当消费者通过所谓的货比三家或长时间的比价,以为自己得了便宜沾沾自喜时,商家可能在暗暗发笑,因为一切都在商家的掌控之中,根本不存在消费者的自主选择。

前人有言人类一思考,上帝就发笑,如今我们可言消费者一思考,马云就发笑马云似乎成了大数据时代的上帝——数据上帝。在数据上帝面前,消费者的自由意志则成了笑料。以前,消费者讨价还价的能力大有用武之地,到了大数据精准营销时代,这种自主判断和选择的能力已派不上用场,甚至可以说连这种能力都可能丧失,而问题的要害在于消费者被操纵、被决定而不自知。

Facebook用户信息泄露事件表明,选民的自由选举权都可以被精准操纵。与消费者的自主权相比,选民的政治权利被操纵更为可怕。据报道,剑桥分析公司收集了超过5000Facebook用户的资料,通过分析用户的性格特征、价值取向、行为模式和人生经历等方面的数据,对左派、右派和摇摆不定的人群进行精准的信息推送,使他们支持公司预定的总统候选人。不难想象当选民自以为自主行使了自己神圣的选举权时,剑桥分析公司及其雇主一定在暗暗发笑。以上我们仅从目前热议的消费和选举两个场景,探讨人的自由权利被侵犯的问题。大数据和普适计算催生了新的人机关系、人-数据关系,数据和算法不再只发挥工具的作用,它们会改变人们的生活习惯和行为方式,与人共同组成一个人机、人-数据融合的新世界。人类稍有不慎,这个新世界就可能成为数据巨机器。

在一般意义上来讲,现代社会是一个基于技术的空间,在这个空间中人与技术的非自由关系一直是技术哲学家和伦理学家关注的问题。美国技术哲学家刘易斯?芒福德在《技术与文明》《机器的神话》等著作中,探讨了人类在机械文明中的自由问题。芒福德认为,现代技术尤其是单一技术造就了一种高度权力化的复杂的大型机器——“巨机器。在这个巨机器中,人无异于一颗颗螺丝钉,服从机械的铁律。

大数据技术是现代单一技术的典范,如果不对大数据技术的使用进行合理的规范,人类就可能面临数据巨机器的灾难性后果。大数据技术和普适计算成了数据巨机器出现的物质基础。数据巨机器由数据和算法铸成。数据是原材料,算法是加工厂。数据来源于离散的个体,算法由具有单一性的机构决定。数据通过算法的加工,铸成了数据巨机器。数据巨机器犹如楚门的世界。在楚门世界,除了楚门,人人都是演员;在数据巨机器里,人人都是楚门,人人都是演员,无人是自己。这意味着楚门世界不过是数据巨机器的雏形,数据巨机器是楚门世界的升级版。楚门世界已足以警示人类,倘若数据巨机器真的全面实现,人类集体忧虑的程度可想而知。显然,人类的任务就是要阻止数据巨机器的出现,而要阻止这种巨机器的出现,还需要深挖促使它形成的精神因素,并建立新的世界观和伦理观。


数据主义与基于权利的数据伦理

如果说大数据技术和普适计算是数据巨机器形成的物质基础,那么数据主义则是数据巨机器形成的精神基础。数据主义造就了数据巨机器,数据巨机器信奉数据主义,数据主义成了数据巨机器的意识形态。

数据主义推崇数据自由至上,这集中体现在它的两条律令上。数据主义第一条律令:要连接越来越多的媒介,产生和使用越来越多的信息,让数据流最大化。数据主义第二条律令:要把一切连接到系统,连那些不想连入的异端也不能例外。[1]不难看出,数据主义追求数据流最大化和连接最大化,要实现这两个最大化,数据自由是必要前提,正如尤瓦尔?赫拉利分析指出的,数据主义相信一切的善(包括经济增长)都来自信息自由。……如果想要创造一个更美好的世界,关键就是要释放数据,给它们自由。”[2]这里的自由是针对数据的,而非针对人的。数据获得了自由,人失去了自由,自由似乎遵循守恒定律,这也暗示自由与善存在某种冲突。数据主义有助于社会运行效率的提高,但可能对个人隐私造成伤害,导致人的齐一性、个人自由的丧失。在自由与善之间,数据主义极端地选择了所谓的善,忽略了人的自由。或者说,数据主义仅在数据这一点上统一了善和自由,因为对数据主义来说,信息自由就是最高的善”[3]

数据主义推崇算法至上,推崇算法暗箱,以实现数据自由的最大价值。人文主义呼吁聆听自己内心的声音,数据主义呼吁聆听算法的意见”[4]。随着大数据和普适计算时代的到来,人类正在将权力交给算法。各种事情的决定权已经完全从人类手中转移到具备高度智能的算法。”[5]数据主义实际上是技术至上主义在大数据时代的当前形态。数据主义主张算法至上,为实现算法至上,算法暗箱是必要的前提。

算法暗箱显现了用户数据权利与机构数据权力的失衡现象。数据是用户的,算法是机构的。数据的收集和使用,对消费者而言是被动的,对机构而言则是主动的。没有算法,数据也许没有价值,算法赋予机构巨大的数据权力,主动权总是掌握在机构手中。数据权利和数据权力的不对称,使消费者沦为数据巨机器的原材料。对机构而言,数据是透明的,哪里有数据,如何收集和挖掘数据,机构都知道。对用户而言,数据是暗的,数据是用户的,但用户并不知道自己有多少数据在外面,这些数据在哪里,如何被使用?对机构而言,算法是透明的,算法是机构设计的,是机构意志的模型化。对用户而言,算法是暗的,用户不知道算法为何物,算法对用户意味着什么。

数据和算法厚此薄彼的灰度(暗和透明),生动地呈现了数据权利与数据权力的失衡现象,这种失衡不可避免导致数据巨机器,导致算法歧视或暴政。若想走出大数据之困,就必须维护数据权利与数据权力的平衡。基于目前数据权力远胜于数据权利的现状,我们应当提倡基于权利的数据伦理。

基于权利的数据伦理主张有规范的数据共享。数据主义主张绝对的数据共享,基于权利的数据伦理是对这种数据主义的反对。基于权利的数据伦理并不一味地反对数据共享,相反它支持数据共享,反对无序无度的数据共享,反对不顾个人权利的数据共享,反对算法暗箱。目前,国际组织、各国政府、行业协会和企业等正在致力于推进数据共享,同时也制订了诸多保护个人数据权利的政策。

基于权利的数据伦理要求尊重用户的数据权利和隐私权。数据的收集和使用需征得用户的知情同意,并实行最少原则(必要原则),用户应当有权知晓个人数据的收集范围和用途。目前,绝大多数机构或网站都制订了自己的隐私条款,但这些条款的内容和实施过程出现了诸多问题,如违背最少原则、扩大个人数据收集范围、违反知情同意原则、未经用户同意二次或多次使用用户数据等。因此,应当对这些隐私条款进行必要的内容审核和过程监督。

基于权利的数据伦理要求算法具有透明性。对用户而言,暗是算法的技术架构特征,透明则是算法的规范性要求。只要算法是暗的,数据共享就是无序的、无度的,就会导致数据滥用和权利侵害。透明至少包含开放和可理解两个方面。算法若是封闭的,不被外人知悉,便是暗的,是不透明的。算法即使是开放的,如不可理解,仍是暗的,是不透明的。只有做到了算法的开放性和可理解性,才能确保算法的透明性,使用户和机构在算法灰度上达到平衡,确保用户的数据权利。

基于权利的数据伦理主张以人为本。数据主义和数据巨机器遵循机械论和机器法则。正如芒福德所指出的,以单一技术为特征的现代技术的意识形态基础是一种机械化的世界观,这种机械化的世界观已经深入到现代人类的心灵,变成一种基本的价值观念和思维方式。[6]这种机械论导致人类智能最高表现的巨机器的出现,机器法则犹如升级版的丛林法则,使人成了数据巨机器统治的对象。这种机械论遵循决定论,与自由律背道而驰。技术意志替代了人的意志,人过着机械化的生活。数据巨机器是具有自由意志的人设计的,但数据巨机器服从机械论,人作为具有自由意志的设计者成了数据巨机器的奴隶。要摆脱巨机器的控制,需要用一种新的世界观来代替这种机械世界观,这种新的世界观提倡基于权利的数据伦理。

基于权利的数据伦理是对数据主义的反对,提倡以人的权利为本,而不是以数据的权力为本;以人的自由为中心,而不是以数据的自由为中心。芒福德通过对技术与文明发展历史的总结,认为科技具有人文传统,这一传统建立在以尘世为中心的接近自然符合人性的模型之上,但是这一传统因单一技术的出现式微了,要想避免巨机器的灾难性进程,西方文明必须回归这一传统。[7]

总的来说,基于权利的数据伦理,旨在消除数据主义对数据自由的崇拜,提倡有规范的数据共享;旨在促进数据共享,消除数据孤岛,防止数据滥用;旨在消除机械论世界观的不良影响,提倡尊重人的权利,重建人在大数据时代的主体地位,建构人与技术、人与数据的自由关系。芒福德曾大声疾呼:人类要获得救赎,需要经历一场类似自发皈依宗教的历程:以有机生命世界观替代机械论世界观,将现在给予机器和电脑的最高地位赋予人。”[8]基于权利的数据伦理,正是强调平衡数据权利与数据权力的关系,平衡数据领域自由与善的关系,促进数据共享,增进人类福祉,维护人类的自由。[本文系国家社会科学基金重大项目大数据环境下信息价值开发的伦理约束机制研究17ZDA023)、国家社会科学基金一般项目开源运动的开放共享伦理研究17BZX022)阶段性成果]


参考文献:

[1][2][3][4][5]尤瓦尔?赫拉利,林俊宏译.未来简史.北京:中信出版集团,2017345347346354315.[6]乔瑞金、牟焕森、管晓刚.技术哲学导论.北京:高等教育出版社,200975.

[7]兰登?温纳,杨海燕译.自主性技术——作为政治思想主体的失控技术.北京:北京大学出版社,20143.

[8]LewisMumford.TheMythoftheMachine:ThePentagonofPower.NewYork:HarcourtBraceJovanovich,1970:413.




数据监控、隐私终结与隐私通货

王俊秀


从斯诺登曝光棱镜计划到剑桥分析引发脸书事件

2018年3月脸书公司因为剑桥分析事件而出现了空前的危机。这一事件的关注点是剑桥公司利用不当收集的8700万脸书用户的个人数据来为美国大选参选人提供数据采集、分析和战略传播。这一事件反映出大数据时代监控的新特点,剑桥分析把用户在脸书上的人格测验和日常的点赞行为进行关联建模,分析他们的政治倾向,推送特定内容影响其选举行为。这一事件构成了一个标准的监控,而监控(surveil-lance)是指个体或者组织通过身体本身的机能或者身体扩展的机能记录、储存、处理和控制他人信息的过程,其结果是产生了对他人的有意或无意的控制”[1]。监控中监控方和被监控方构成监控关系,信息的处理包括记录、储存和处理,达到的目的是对他人的控制。

这起由剑桥分析引发的事件并不是孤例,社会对监控事件也不陌生,就在大约5年前还发生了另外一起震惊世界的重大监控事件。20136月美国中央情报局、国家安全局前雇员爱德华?斯诺登向媒体曝光了美国国家安全局的棱镜计划,显示美国政府大量收集民众个人信息,他们不仅监视谷歌、雅虎、Youtube等网站,也监视苹果手机、Skype等通讯、聊天和电子邮件。[2]监控社会的角度看,剑桥分析事件斯诺登事件都是具有标志意义的历史性事件。斯诺登事件暴露了“9?11”之后,美国及西方主要国家以国家安全为理由公开和非公开地对个人信息监视的加强;而西方民间社会以往很强的个人信息和隐私保护力量被迫退缩。仅201338日起的一个月内,美国国家安全局下属的一个部门就搜集了超过30亿封通过美国电信系统的电子邮件数据,该部门从世界各国搜集了970亿封电子邮件和1240亿通电话。[3]而脸书也曾透露,在2012年的后6个月内,该公司共将18000名用户的个人资料交给美国各执法机构,不仅是国家安全局,还有联邦调查局、联邦机构和当地警察。[4]

表面上看,脸书事件棱镜计划相似,都是收集个人信息,民众感到隐私被侵犯了。但这两个事件又存在本质上的不同。首先,两个事件构成的监控关系不同,体现在监控实施方的角色不同。棱镜计划是一种国家以安全为理由的政治监控,监控关系的双方是国家权力机构对众多个人的监控。脸书事件则是由剑桥分析这家公司的商业监控开始,之后监控关系由商业机构对众多个体的监控转变为政治人物个人对众多个体的监控。其次,两个事件在监控后果上存在很大差异。斯诺登事件的监控主要体现为信息收集、储存和分析,因为被监控对象当时并不知情,后果是发生在事件暴露之后的焦虑和愤怒;剑桥分析事件超越一般监控关系的是,不仅有对于个人信息获得,更体现在获得信息后的数据分析,以及作出针对个体态度和行为改变的控制。不仅如此,这种控制不同于以往监控对于行为的改变,个体行为改变是在毫无意识的情况下发生的,个体丧失了知觉和抵抗力。


大数据时代、隐私的终结与隐私通货(privacycurrency

监控一直是西方社会非常关注的问题,社会学、传播学等很多学科都有大量的研究,西方一些学者认为现代社会的监控越来越升级,已经成为一个监控社会。而关于监控社会的演变从几个核心概念可以体现,分别是1787年英国哲学家边沁设想的圆形监狱(也译为全景敞视监狱),虽然这一监狱并没有建成,但被福柯作为传统监控社会的隐喻。1949年英国作家乔治?奥威尔的政治小说《1984》,以及小说中无处不在的老大哥作为西方社会对极权社会

入侵个人隐私焦虑和恐惧的代表。电子时代出现,又延续到数码时代,并与智能化识别结盟的、无处不在的摄像头、电子眼(英文叫CCTV,学名闭路电视,closedcircuittelevision的简称),是科技时代监控社会的主要体现。[5]从熟人社会到陌生人社会的过程里,时刻需要做身份识别,从身份证、指纹识别、虹膜识别到目前俗称刷脸的面部识别,这些手段都是用来解决人的流动带来的身份识别问题,但也是新的监控形式。随着计算机技术的发展数据库越来越强大,帕克把这种监控称为数据监控[6],马克?波斯特认为数据库的监控比圆形监狱更强大,是一套没有围墙、窗子、塔楼和狱卒的监控系统,他称之为超级圆形监狱[7]

进入大数据时代,监控出现了质的变化,原来各种类型的监控手段出现了整合,监控的力量变得异常强大。以视频监控手段CCTV为例,已经不是单一的视频监视和图像记录、储存了,与智能化身份识别、动作识别结合在一起,大量的视频监控信息构成了大数据,大数据加智能分析和云计算再与其他的监控信息关联(比如与身份识别数据库关联,也可以与个人的消费等信息关联),构成一个人完整的数字人格(digitalpersonality)。以往的数字人格基本包含身份证号码(或社会安全号码)、出生日期、出生地、国籍、籍贯、性别、住址、家庭状况、收入与报税资料、银行存款与信用情况、学历、健康状况、保险类别与保险卡号、电话记录与电话号码、前科记录、驾驶执照号码、信用卡号码、会员号码、图书证号码、上网账号、学号、通行证号码及密码等。[8]大数据时代信息来源于许多方面,既包括政府机关、商业企业收集的个人信息,也包括个人输入和提供的信息,比如可穿戴设备产生的大量个人信息,以及智能手机使用所产生的大量信息,这些信息的整合构成了大数据监控。在大数据时代,理论上个人的信息无论是身体本身的信息,还是身体延伸出来的信息都没有办法隐藏,只要愿意都可以通过一定手段获得。原来信息收集的手段是人工的,后来开始有机械的、电子的,到现在完全是信息化的、智能的,加上云储存、云计算、数据挖掘技术,监控是全息的。原来的监控是依靠场景设计实现全景敞视,现在则是不改变原有形态对个人信息实现显微、放大和关联,把碎片信息整合,构成完整的行为和心理刻画,实质上个人已经无力保护自己的隐私了,隐私终结了。

如果说“9?11”事件标志着一个新的监控时代开始的话,剑桥分析事件则标志着隐私终结时代的到来。“9?11”事件之后,西方社会的监控全面展开,以往西方社会比较重视个人隐私,社会对政府的监控有很强的抵制。但“9?11”事件以后,恐怖主义威胁美国和西方社会的安全,于是隐私作为通货用来购买国家安全和个人的安全感。美国和一些西方国家大力推进监控的合法化,但监控的边界并不清晰,棱镜计划暴露出以美国为首的西方国家的强力监控行为。同时,因为西方社会对于个人隐私观念的根深蒂固,许多人并不情愿用个人的隐私来交换安全,才会出现斯诺登以一己之力抵制国家对个人的监控,甘愿冒着叛国的罪名泄露国家机密文件,并出逃他国的行为。可见,后“9?11”时代,以隐私作为通货来交换安全是一种国家行为,个人在这一过程中是无奈的、受迫的,个人隐私保护的态度和行为并未发生本质的改变,隐私安全感与人身安全感之间的冲突是一个两难的抉择,个人难以消解。

大数据带来了隐私的终结。大数据时代人们还用隐私作为通货来交换生活的便利。信息科技给人们带来极大的便利,比较典型的是智能手机的发展,它几乎成为一个全能的工具,除了原有的通讯功能外,社交网络工具使得人们产生了依赖,导航、约车、购票、值机,购物、支付服务费用、银行账户管理等,它给人们带来的便捷使得人们已经到了几乎无法离开手机的地步。而在人们手机的使用过程中产生了大量的个人信息和隐私信息,而大量的信息都是个人主动提供的,比如手机解锁的指纹、脸部识别等,都是不知不觉、心甘情愿地把一些个人隐私信息输入无形的网络。在人们把隐私作为通货交换生活便利的时候,人们有条件地放弃了对个人隐私的保护,把希望寄托在个人信息不可能被滥用的假设和期冀之上。前不久,在中国发展高层论坛上百度董事长兼CEO李彦宏表示,中国人对隐私问题的态度更开放,也相对来说没那么敏感。如果他们可以用隐私换取便利、安全或者效率,在很多情况下,他们就愿意这么做。当然我们也要遵循一些原则,如果这个数据能让用户受益,他们又愿意给我们用,我们就会去使用它。我想这就是我们能做什么和不能做什么的基本标准。此言一出,立即引发了全社会的热议。虽然他讲的话基本上属于实情,但当他把这个实情讲出来时,许多人还是很吃惊,因为隐私确实被人们长期忽视,而这种忽视是人们无意识的,人们缺乏对隐私的了解和隐私保护的意识。

“剑桥分析事件是给全社会的一个警告,我们真的愿意用隐私交换安全和便利吗?剑桥分析利用了人们对隐私让渡的权利,用很低的价格购买了隐私,但却进行了越权的处理,非法对人们的个人信息进行分析,通过有目的的信息推送来改变人们的态度和行为。在这个过程中,人们失去的不仅是个人隐私,还有个人的自主性,而这一切是在个人无意识下进行的。大数据时代人们生活在信息科技中,信息生活的便利性使得人们选择了用隐私来交换。但随着信息化、大数据化的深入,人们其实已经没有选择,如果不选择隐私让渡就意味着生活的不便利或者会带来困难,隐私让渡将从自愿转为无条件服从。因为隐私的终结带来隐私的贬值,隐私作为通货所能交换的价值将降低,为了换取便利性而丧失了个人的自主性,代价更大。


隐私保护与对数据监控的监管

“剑桥分析事件提出了严肃的问题:在隐私终结的时代要不要保护隐私?如何保护隐私?社会上个人信息被非法利用非常普遍,长期打击依然猖獗的电信诈骗可以直接构成对人的伤害,2016年发生的徐玉玉案就是典型。姑且不谈个人信息被非法利用所造成的伤害,保护隐私是对个体发展的保护,是对个人基本权利的保护。研究者一般将隐私分为几种类型:一是把隐私看作与个体尊严相关的内容,二是认为隐私是不受他人干扰的权利,三是认为隐私是对个人信息控制的自主性,四是认为隐私是个体回避他人的状态。这四种隐私的观点从各自不同的视角去界定,都具有一定的片面性。随着人们对隐私研究的深入,趋向于把不同的视角结合起来,构成隐私的完整的形态。加强个人隐私保护,防止数据监控泛滥将关系到个人的身心健康。监控对心理的影响,最轻微的就是引起被监控者的焦虑,被监控者感到有人在监视时会引起不安和焦虑,当人们觉得陷入数据监控的包围中时会产生全景敞视效力机构、办事机构、企业和团体的监控行为,要明确信息获取的风险和责任,对于信息储存和处理中造成的损害,要及时消除和承担经济与法律责任。比如,收集了用户银行卡信息的机构如果信息被截获或泄露,要及时补救,对于用户的损失要赔偿,防止过度收集个人信息。政府部门应该通过立法规范和监管涉及数据挖掘与建模规程中用户信息分析的算法逻辑,杜绝算法黑洞,避免大数据杀熟现象的发生。

最近,欧盟的《通用数据保护法案》(GeneralDataProtectionRegulation)开始实施。[10]而这一法案实施之前经历了漫长的立法倡议、修订、审批和通过的过程,早在1995年欧盟就出台了《数据保护指南》。这个法案强化了数据保护和个人隐私权,法案的实施是一个良好的开始,也将为各国面对大数据时代数据监控和个人隐私保护之间的问题和冲突提供一个可贵的探索。这个法案从数据主体、数据控制者和处理者、数据监管者三个方面来规范个人数据的保护。法案提出了一些数据监控必须遵守的原则,可以比较好地保障个人隐私的边界。例如:数据不应该以应,就好像身处圆形监狱。[9]

“脸书事件中用户信非法或不正当手段获取;收集的目的具体、准确,不用息的泄露和非法使用,已经不是简单的隐私侵犯问题了,直接的后果是通过个人信息分析个人态度和行为偏好,从而控制其心理和行为。因此,隐私的终结将是对个人自主性的终结,个人的信息将会被监控者滥用,个人的态度和行为将存在被监控者操纵的可能性。

“脸书事件引发的讨论应该成为一个契机,重新唤起人们隐私保护的意识,意识到隐私通货的风险。更重要的是,这一事件应该促使政府、商业机构,以及全社会重新认识和处理监控与个人隐私的关系。

监控社会的监控并不仅仅是由上而下的政治监控、管理监控或安全监控,也包括由下而上的社会对公共权力机构的监控,以及个人或群体之间的平行监控。而在这些不同的监控关系中要规范监控的边界,明确信息获取、储存、处理和使用的责任和边界,防范数据被滥用。对于自上而下的国家安全、社会管理监控,要依法规范权力边界,防止公共权力过度侵入个人生活。对于自下而上的监控,要引导其社会参与和社会监督的功能。对于公共权于其他目的;数据的收集仅限于必要的最低程度;保证数据的安全;数据控制者对于数据负有责任;合法性、目的限制、数据最小化、数据准确、完整性、机密性和问责制等原则。我国也应该尽快出台数据使用方面的法律,规范大数据时代个人信息和相关数据的使用,规范网络行为,完善社会治理体系。[本文系孔学堂2017年研究课题大数据与社会心态研究KXTXT201701)阶段性成果]


参考文献:

[1][5][8][9]王俊秀.监控社会与个人隐私:关于监控边界的研究.天津:天津人民出版社,200624649485619.

[2][3][4]格伦?格林沃尔德,米拉、王勇译.无处可藏:斯诺登、美国国家安全局与全球监控.北京:中信出版社,201487;卢克?哈丁,何星、周仁华等译.斯诺登档案:世界头号通缉犯的内幕故事.北京:金城出版社,20162166.

[6]Parker,John.Totalsurveillance:investigatingthebigbrotherworldofEspies,eavesdroppersandCCTV.Piakus,1999.

[7]马克?波斯特,范静哗译.信息方式:后结构主义与社会语境.北京:商务印书馆,2000127;马克?波斯特,范静哗译.第二媒介时代.南京:南京大学出版社,200065-66.

[10]http://www.sohu.com/a/164535523_735021.




自由与安全:美国社交媒体监控模式剖析

周松青


4G时代,社交媒体改变了人类的生活方式,自媒体成为信息传播的主体,信息话语权分散化,重大新闻事件常常衍生于日常生活中。信息的碎片化、随机性和偶然性,也使安全部门对互联网信息监控面临极大困难,成为巨大的安全隐患。然而,最近爆发的Facebook事件则展示了另一个方面的安全危机,即我们在社交媒体中尽情展现自我的同时,如何保障我们的隐私安全。Facebook丑闻是全人类面临的共同问题,当这个问题与以美国为代表的西方政治生态融构在一起时,引爆了潜藏在隐私风险之上的巨大政治风险。斯诺登事件向人们揭示了美国安全机构长期以来对普通民众实施的网络监控,而Facebook事件则揭示了第三方可能利用社交媒体对网民隐私的侵犯。

关于社交媒体监控和数据隐私安全研究,学术界的成果比较少见,本文试图探索已经演变成为红海的社交媒体信息安全监控问题,以弥补相关研究的不足。社交媒体信息安全主要涉及三个方面:第一,国家安全机构监控社交媒体,以防范和打击恐怖主义和网络犯罪;第二,社交媒体和第三方公司利用社交媒体对网民个人信息收集而形成的大数据,构成隐私安全及衍生的国家安全问题;第三,随机的零星的利用社交媒体中个人信息暴露形成的隐私安全风险。限于篇幅,本文聚焦于第一个问题,主要探讨美国社交媒体监控恐怖主义和网络犯罪的经验和启示。


社交媒体:信息时代的安全之匙()

社交媒体改变了信息传输的基本形态

社交媒体信息分为开放源代码、社交媒体情报、信号情报和人际情报[1],是以互联网为平台,以网民社会交往为主要内容的开放性自媒体系统,包括社交网络、微博、社交游戏。社交媒体经历了论坛、博客、微博、微信四个阶段。信息内容越来越短,发布和回应越来越便捷。每一个人都可以成为信息源和信息载体,颠覆了传统媒体中专业机构制作和信息发布、读者观看和收听信息的单向模式。信息跨越了公共和私人生活界限,使私人生活公共化。政府和商业机构通过收集电话、在线互动数据,可以提供个人习惯、喜好、关系和社会网络的丰富细节,瓦解了人们在不同生活领域之间创造的区隔,使精心管理的身份控制受到损害。[2]

社交媒体已经成为信息生产和传输的主要载体。据美国议会情报和安全委员会2015年报告,互联网承载了24亿个互联网用户的通信。在1分钟里,这24亿人传输了1572877千兆字节的数据,包括2亿400万封电子邮件,410万个谷歌搜索,发送690万条脸书短信,347222帖推特和在YouTube上观看138889小时的视频。[3]

社交媒体改变了信息传输的基本形态。第一,社交媒体挤压传统媒体生存空间,迫使其向社交媒体转型,出现传统媒体与社交媒体融合的趋势。第二,社交媒体生产的信息占互联网总流量的95%以上,传统媒体信息内容有很高的比例来自社交媒体。第三,社交媒体的内容生产是一场全民运动,几乎有多少个社交媒体用户就有多少个内容生产者,同时,他们在信息的相互传播中,以几何级数扩散信息,放大了信息量和信息效率。

(二)社交媒体成为情报监控的核心

社交媒体为封闭的小群体提供了秘密交往、招募成员的机会。一般群体因为交往内容的脱敏性,不需要建立封闭的小圈子。具有特殊诉求的小群体希望建立封闭的圈子,将可能泄密的人员排斥在外。社交媒体朋友圈权限设定,可以将不熟悉的人排除在外,保持隐秘性。这增加了安全机构监控难度,使之无法迅速掌握封闭小群体的动态。

社交媒体为小群体秘密交往提供隐秘平台,推高了安全监控的难度。第一,隐密的小群体具有高度的内聚性和凝聚力。常常有共同目标和诉求,较少出现内部泄密的情况,不易被外界察觉。第二,社交媒体的技术特点为小群体的秘谋活动提供了便利条件。社交媒体在信息传递、人员招募、聚会议事、私密性等方面提供强大的能力,成为社交媒体技术发展的附产品。魏曼认为,约90%的恐怖组织正在利用社交媒体进行活动,通过使用这些工具,恐怖组织能够不受地理限制地招募新成员。他们利用脸书的社交性质,来到人们身边,从朋友到朋友的朋友,逐渐扩大圈子,最终变成一个巨大的社交网络。[4]

社交媒体的特征使之成为安全监控的中心。恐怖组织利用它实施恐怖威胁,安全机构也可以利用它追踪恐怖分子,成为掌握情报先机的平台。


美国社交媒体监控的框架和模式

监控社交媒体是互联网时代各国安全机构的重要职能。美国情报和安全机构对社交媒体的监控,在斯诺顿事件曝光之后引发全球震动和担忧,被美国政府和国会认为是危害美国国家安全的重大事件,可见监控社交媒体对于美国国家安全的意义。

(一)美国社交媒体的类型和特点

根据社交媒体的主要特性,可以区分为五种类型:交友、微博、视频、聊天、购物。美国拥有世界级的社交媒体,Facebook在全球拥有15亿用户,Twitter3.1亿用户,Skype3亿用户。社交媒体在很大程度上相互借鉴,将其他社交媒体好的特征嫁接在自己的应用中,导致社交媒体出现跨界和趋同。美国社交媒体的集中度和垄断指数达到非常高的水平,但也竞争激烈,呈现群雄逐鹿态势,主要有三个特点:

第一,美国的社交网站具有全球性,用户数量冠甲全球。FacebookTwitter美国国内用户占少数,大部分用户来自全球各地。这种全球性受到两个因素的影响:一是语言,英语是全球通行语言,英语用户可以无障碍地使用美国的社交媒体。二是政治环境,美国的社交网站相对保持了较高的开放性,如果不刻意屏蔽美国的社交网站,他国用户都可以使用美国的社交网站。第二,从安全的视角来看,即时聊天是人员交流和联系的重要渠道,其交流内容只有聊天群中的人可见,具有很高的隐秘性,为涉恐小群体的交流提供了一定的隐私保护,使安全监测的难度提高。第三,社交媒体对个人生活的渗透在美国达到很高的水平。CNN认为,人们之间的隐私谈话已经终结,越来越多的谈话是通过电子邮件、文本或社交网站进行,人们在电脑上做的每一件事,在不知情的情况下被公司所了解,而政府在没有授权的情况下可以访问这一切。

(二)美国社交媒体监控的总体框架

美国几乎每一个联邦部门都成立了自己的情报机构,情报总监下辖的情报协会有17个会员单位,这些情报部门根据自身需要通过特定渠道收集情报。为了简便起见,本文列出三个最重要的情报机构,绘制美国社交媒体监控框架图。

美国社交媒体监控的总体特征为:第一,国家安全局等情报机构是监控的核心机构,监控社交媒体、网民,同时从五眼国家情报机构和私人数据库公司获取情报,全国性数据库主要掌握在这些情报机构手中。第二,各州警察局是次一级的监控机构,监控社交媒体和网民。警察局主要通过社交媒体监测辖区内的个人和信息,维护治安,搜索罪犯,在技术、数据库上得到联邦情报机构的帮助。第三,五眼国家情报机构监控社交媒体和网民,与美国情报机构交换和共享情报,五眼国家情报机构对于社交媒体和网民不具有强制力,也不受美国法律约束。第四,社交媒体在受到监控的同时,也监控网民,并根据需要向权力机构提供数据。第五,技术和数据库公司利用自身的技术优势,获取社交媒体和网民信息,向情报机构和商业公司出售数据谋利。第六,网民是各方监控的中心,同时,网民根据自身的价值判断,向情报机构、社交媒体举报非法和危险行为。

(三)美国社交媒体监控模式

美国社交媒体监控系统庞大而复杂,正如美国庞大的情报体系一样。在多头监控体系中,本文根据一致性和普遍性原则,概括如下五种监控模式。

1.元数据模式

收集个人详细档案资料建立数据库是美国安全机构采取的重要措施,监控社交媒体获取个人元数据起到了非常关键的作用,这种监控方式被称为元数据模式。美国的FISC法案(外国情报监控法案)授权国家安全局收集个人邮件、电话、互联网搜索、网站的访问、脸书的帖子和其他互联网数据,将它们提供给计算机审核并挑选出来由分析师审查。[5]数字技术的崛起大大降低了政府获取个人详细档案的成本,个人的日常生活对于权力机构变得透明[6],人们无力抵抗情报机构对他们网络行为的监控。英国选举委员会在一份报告中指出,所有新的监视技术的基础是数据库”[7],由国家和非国家实体进行的数据收集越来越广泛、标准化和程序化。脸书、推特将个人用户数据出售给政府和其他公司,这些数据成为权力的基础。社交网络技术使政府能够积累巨量的个人资料,而不必直接进行监控。这些数字档案成为数字世界一个人身份的重要组成部分,一旦信息被数字化,它几乎不可能被删除或矫正。[8]Felten教授就斯诺顿事件在法庭作证时认为,元数据分析的力量及其对个人隐私的潜在影响,随着收集数据的规模增加而增加。复杂的计算工具允许大型数据集的分析,以确定嵌入式的模式和关系。因此,以前很少暴露隐私的个人资料的碎片,现在被收集起来,成为揭示人们日常生活的敏感细节。[9]

2.共生模式

美国执法机构为了监控社交媒体,与网络服务商建立合作,收集、存储和共享广泛的个人数据,形成共生模式,主要在三个不同但相关的领域展开:一是利用个体碎片化行为编目,使个体行为意义化。二是引入语义查询系统和大数据分析引擎。三是采用新技术收集和分析数据,预测个人犯罪风险。美国执法机构充分地利用了社交媒体收集的信息。

联邦调查局的下一代识别(NGI),旨在统一平民、执法和军事生物数据库的照片,以及其他由私人机构持有的数据为中央存储库,供所有政府机构访问。这个强大的组合,具有集中统一的数据监控,强制性的生物特征身份跟踪,实现官僚化的监控。国家与公民之间的所有遭遇,当认为可疑时被筛选、自动化和标记。[10]政府需要社交媒体数据,而私营部门拥有令人惊讶的数据挖掘和信息收集、存储和塑造能力。因此,一个有利可图的大数据和政府之间的共生关系出现了。私营企业设计软件和监控系统,通过记录个体的搜索、按键,偷偷地观察个体在互联网上的行为,来满足政府的需求。在这种进程中,人们对隐私的历史承诺已成为一种幻觉。[11]

3.代理模式

美国法律规定政府原则上不能监控美国人。为了绕开这个限制,美国安全部门采取与五眼国家合作的方式,由他国情报机构代理实施对本国公民的监控,既能避开法律的限制,又能实现监控目标,即代理模式。五眼国家由美国、英国、加拿大、澳大利亚和新西兰几个英语母语国家组成,收集几乎所有电子内容,重点监控美国的社交网络。NSA(美国国家安全局)从英国政府通信总部(GCHQ)获得政治敏感数据,二者共享数据库,大约300GCHQ250NSA特工负责筛选数据。GCHQ截获的原始信息的36%给了国家安全局。两个机构可以100%交换情报。[12]除了五眼国家之间的合作外,美国国家安全局还通过德国、荷兰等国的安全机构获取情报,并在一定范围内共享信息。

4.监控网模式

将社交媒体作为一个巨大的监控网,用于监控网民和组织的行为,发现和预测犯罪及恐怖主义风险,即监控网模式。Bartow认为,脸书是一个巨大的监控工具,无需授权,政府可以使用不受现有法律约束的方法实施监控。[13]美国联邦政府高度依赖社交网站从事犯罪调查。据电子前沿基金会从司法部获得的备忘录,联邦特工能够使用来自社交网络的资料建立犯罪证据,提供位置信息。特工卧底脸书是一种常态,他们可以在脸书中确定一个嫌疑人的朋友和潜在产生的信息或目击者[14],通过法院传票和许可证大规模收集个人在脸书中的敏感信息。此外,来自脸书和第三方的自愿揭露,为执法机构提供大量线索和证据。[15]

5.针-草堆模式

美国情报机构一直追逐最新的社交媒体监控技术,这使其在技术上处于领先地位,建立了全方位挖掘社交媒体数据的能力,被称为为了找到草堆里的针,它需要获得整个草堆[16],即针-草堆模式。中情局的风投公司in-Q-Tel一直在寻求各种新技术,包括数据挖掘、人工智能,可以检测内部威胁的计算机算法,能够抓住细微目标的机器人,对社交媒体中的抗议者具有跟踪能力和客户识别的Geofeedia,用于社交媒体数据网络结构分析的Dunami。与网基合作,获得扫描数亿公共和私人在线信息源的能力。[17]联邦调查局利用预先配置的“sociospyder”网络刮刀软件,能够大量收集帖子、微博、视频、聊天点播,自主进入各种数据库,获得了对社交网络不同目标实施监控、绘制用户关系图的能力。美国情报机构对监控技术不遗余力的追求,使之获得了大海捞针的能力[18],其突破了社交媒体安全防护的能力,甚至让社交媒体巨头感到恐惧。


美国社交媒体监控的问题和启示

社交媒体监控是美国安全体系的核心环节,投入巨大的科技、人力、财力,建立了缜密、完整的社交媒体监控体系。具体而言:

第一,美国社交媒体监控主体集中于情报和警察机构。主体明晰,职责分明,结构复杂而多元,形成完备的社交媒体监控体系。第二,美国社交网络监控以网民为重心,完整地收集网民的信息,建立详尽的个人数据库和行动者间的关系网络,为风险预警提供基础。美国监控机构在法律上不能干预社交媒体,而只能监控社交媒体中的行动者。第三,美国社交媒体监控的技术发展方向具有鲜明特征,以建立能够监控、侦测、收集、预测和报警的数据挖掘和数据分析技术为导向。着眼于预警和防范,抢占情报先机。第四,美国建立的社交网络监控语言数据库具有强大的语义分析和机器学习能力。其语言数据库以犯罪、恐怖主义、毒品、炸弹、病菌、游行示威、监控名单、观察名单等引发社会风险的行为和人为主,体现了美国的核心关切和安全形势。第五,美国监控机构与监控对象之间不构成垂直的权力关系,只能借助法院传票、司法部行政密令等,要求社交网络提供支持,不能干预社交网络的内容发布和网民言行。

美国在建立强大的社交网络监控能力的过程中,产生了自由和安全悖论:人们需要为了安全而让度自由和隐私吗?或者为了自由和隐私,可以承受安全风险吗?美国监控机构在一个开放体系中监控社交网络,利用隐私和法律政策,但在社交网络内部建立了一个具有封闭意义的边界,使个体在浏览或发布信息时感到不安。或者说,美国的社交网络行动者尽管拥有表达自由和开放边界,但在无处不在的社交网络监控体系之下,需要承担因为言行不当成为被追踪对象的后果,从而出现寒蝉效应和监控社会的危机。

美国社交媒体监控经验,对中国的社交媒体安全有如下启示:

第一,在保障国家安全核心利益的诉求下,强化社交媒体高风险人物监测的侵入性。中国的社交媒体监测主要围绕防堵展开,防止有害信息在中国互联网世界中传播。这一防堵策略在过去20年中基本行之有效,但在网络恐怖主义威胁日益紧迫的当下,存在明显的缺陷。防堵可以阻止信息传播,但却无力甄别高风险人物及其行为,无力达到预防和打击的效果。

第二,强化安全部门国际间交流合作,加强涉华恐怖主义风险信息的交换和情报共享。美国建立了五眼国家情报安全机构紧密合作模式,并将这种模式扩展到西方其他非英语国家,在打击恐怖主义威胁上相互交换情报和信息,挫败了许多起恐怖威胁。中国在沿国土边界的互联网世界建立了一个巨大的防护罩,但是,这个防护罩也在一定程度上屏蔽了恐怖威胁潜流,失去了社交媒体中危险信息的机会表达。因而,建立中国的情报安全机构与西方国家安全机构之间的合作,实现一定程度的信息共享和交换非常关键。

第三,充分利用新的软件技术如网络刮刀和计算机语言学习能力,加强对社交媒体言论的以安全风险和恐怖主义威胁为导向的监测,建立恐怖主义威胁语言库响应方案。对社交媒体的监测不能仅限于中国境内的互联网,而应扩展到全球主要的社交媒体网络,建立强大的信息收集、储存、机器分析和人工分析、处置体系。

第四,数据库的建设、储存和互联网信息流的截取。这是美国经验中值得学习的重要一点。美国的安全机构在不断地扩充其数据库,在犹他州投资20亿美元建立了数据储存基地。这些数据在表面上是死的数据,但是一旦出现威胁信息时,相关信息指标将会在数据库中进行检测和筛选,从而在数据碎片中建立完整的信息链条。中国安全机构在互联网中的防堵策略在数据库认知和建设上存在一定盲区,大量在未来可能有价值的数据碎片没有被系统地保存下来,所谓的大数据分析大多停留于描述分析的阶段,而恐怖主义威胁信息存在于广阔的数据碎片中,需要深度挖掘和精确锁定。

第五,Facebook事件为我们敲响了警钟,在加强社交媒体监测的同时,也要防范社交媒体数据泄漏风险,加强对社交媒体和第三方公司的管控。剑桥分析通过获取5000万人的社交媒体数据,建立其心理和行为模型,达到操纵个体行为的目标,并在2016年美国总统大选中可能发挥关键作用。这一

模式与2011—2012年颜色革命和阿拉伯之春中,西方国家利用手机短信和社交媒体操纵相关国家民众的行为具有异曲同工之妙。而这一次是基于个体心理和行为分析的基础上进行精准操纵,尤其令人生畏。因而,数据是权力,也是武器,加强对社交媒体大数据的管控,防止社交媒体数据落入第三方之手,尤其是敌对势力之手,不仅是保护社交媒体用户的隐私安全需要,也是保障国家安全的根本。[本文系国家社科基金项目突发事件网络舆情应急机制的中美比较研究14BTQ028)、中国法学会部级项目打击网络恐怖主义的国际合作研究CLS201721)阶段性成果]


参考文献:

[1] [7] [13]Lilian Edwards, Lachlan Urquhart. Privacy in Public Spaces: What Expectations of Privacy do we have in Social Media Intelligence?. Social Science Electronic Publishing, 2015, 24 (3) :279-310.

[2] Melissa De Zwart, Sal Humphreys, Beatrix Dissel. Surveillance, Big Data and Democracy: Lessons For Australia From the US and UK. UNSW Law Journal, 2014, 37(2):713-747.

[3] Intelligence and Security Committee. Privacy and security: a modern and transparent legal  framework, HC 1075 2014/15, 2015.3.12.

[4][8] Gaffin, Elizabeth, Friending Brandeis: Privacy and Government Surveillance in the Era of Social Media, So- cial Science Electronic Publishing, 2012.4.30.

[5] Leah Angela Robis. When does public interest justify government interference and surveillance?.Asia- Pa- cific Journal on Human Rights and the Law, 2014,15(1&2): 203-218.

[6] Arthur Cockfield. Surveillance as law. Griffith Law Review ,2011,20 (4):795-817.

[9] [12] Brown, Ian, Expert Witness Statement for Big Brother Watch and Others: Large- Scale Internet Surveillance by the UK. https://ssrn.com/abstract=2336609, 2013.9.27.

[10] [18] Kevin Miller. Total surveillance, big data, and predictive crime technology: privacy's perfect storm. Journal Technology  of  Law and  Policy,  2014,   19(1):105-147.

[11] David Barnhizer. Through a PRISM Darkly: Surveillance and Speech Suppression in the“Post Democracy Electronic State”. Cleveland-Marshall College of Law. Research Paper 13-258, 2013:1-70.

[14] Junichi P. Semitsu. From Facebook to Mug Shot: How the Dearth of Social Networking Privacy Rights Revolutionized Online Government Surveillance.  Pace Law Review, 2011, 31 (1):291-381.

[15] Christopher Soghoian. An End to Privacy Theater: Exposing and Discouraging Corporate Disclosure of User Data to the Government. Minnesota Journal of Law, 2011 ,12(1):191-237.

[16] Ira S. Rubinstein, Gregory T. Nojeim, Ronald D. Lee. Systematic government access to personal data: a comparative analysis. International Data Privacy Law, 2014, 4(2):96-119.

[17] Sneacker. The CIA’s Massive Expansion in Social Media Surveillance is Just the Tip of the Iceberg. http://securityaffairs.co/wordpress/46467/social-networks/cia-social-media-surveillance.html,2016.4.19.




大数据的新兴风险与适应性治理

张海波


大数据导致的隐私泄漏是大数据潜藏的风险,这无疑是我们当前面临的一个新问题。然而,从历史坐标来看,这又是一个技术反制人类的老问题。例如,早在1984年,美国好莱坞拍摄的电影《终结者》就已经触及我们今天谈论的大数据和人工智能最终可能危害人类自身安全的问题。2008年,好莱坞电影《鹰眼》部分写实地反映了后“9?11”时期信息监控的滥用及其危害。不同的是,2018Facebook事件提供了一个现实的场景。从风险的角度看,其在本质上都是风险社会的后果,即现代性的自反性。在风险社会的理论语境中,贝克强调技术创新的负面后果,吉登斯强调制度创新的负面后果。大数据的广泛应用既是技术创新,也是制度创新;既有技术创新的负面后果,也有制度创新的负面后果。在本质上,它和环境污染、金融风险这些问题具有一定的共性,也有一些自身的特殊性。

在风险社会理论的语境下来理解大数据的风险,可以从四个层次循序展开初步讨论。


大数据如何从一个创新议题变成一个风险议题

总体而言,这本身就是风险社会的一个关键特征,即风险语义超过经济语义而占据主导地位。具体而言,这又是一个新兴风险的议题。新兴风险这个词很难翻译,虽然翻译成新兴不太合适,但又找不到其他更为贴切的翻译。英文的“emerging”的描述很直观,有逐步浮现之意,强调动态性。也就是说,以前不是风险,现在开始成为风险,将来可能是个大风险,“emerging”这个词形象地表达了风险的动态变化过程。

“新兴风险的概念主要是欧洲学者提出来的,主要来自于两个报告。一是经济合作与发展组织(OECD)在2003年的一份报告:《新兴风险:21世纪的行动日程》,讲的主要是系统风险(systemicrisk),强调人口、生态环境、技术和社会结构的变化如何改变风险传递的路径,导致一种综合性影响。二是国际风险治理学会(IRGC)的系列报告,对新兴风险的定义有所扩展,不仅包括系统风险,还包括陌生风险(unfamiliarrisk)和极端风险(extremerisk)。

2017年,法国一位学者提出,需要重新定义新兴风险,认为新兴风险不是一种独特的类型,而是任何风险生命周期都必须经历的前期阶段。这种观点是有一定道理的,环境污染、金融风险都是这样,刚开始的时候大家都不觉得是风险,后来才慢慢觉得是风险,最终在较大范围内达成一种语义的共识。大数据的风险也才开始被我们所认识,但基本上还是一种陌生的风险,风险还会继续浮现,越变越大。

从这种意义上来讲,关于新兴风险的认识不可避免地具有滞后性,它只能随着风险的不断表露和公众对于风险的认识不断深化而逐步凸显。反过来,如果超前预言风险,则难有共识,甚至会被认为是杞人忧天


大数据到底是一种什么样的新兴风险

大数据到底有哪些表现形式,让我们觉得它是风险?这就要区分主体。

对国家而言,大数据是否构成风险?答案很明确,大数据对国家肯定构成风险,Facekook数据泄漏事件就是典型的案例。美国网民隐私泄漏导致美国的民意和政治选举被干扰了,这是显著的政治风险,直接对美国的国家安全造成了威胁。2012年,奥巴马政府发布《大数据研究和发展计划》,提出了数据主权的概念。中国也已经意识到这个问题。党的十八大之后提出的总体国家安全观,其中就包括网络安全,这个网络安全不仅指芯片等核心技术的自主知识产权,也包括数据主权。从理论上看,中文的安全在英文中有两个对应的概念,一个是“secu-rity”意义上的安全,一个是“safety”意义上的安全,前者主要是国际政治的概念,后者主要是安全科学的概念。在国际政治的语境下,安全最早就是指国家安全、军事安全,随着非传统安全威胁的不断涌现,现在网络也事关国家安全。换言之,总体国家安全观就是将以前我们不作为国家安全问题的网络安全也上升为国家安全,其中的一个原因就是大数据可能会危害到国家安全。

对企业而言,大数据是否构成风险?从目前来看,大数据对企业来说更多的意味着创新和收益,还看不出来是多大的风险。

对社会而言,大数据是否构成风险?答案是肯定的。首先是行为会被监控,进而意识会被操控。行为被监控、隐私泄漏,这些都已经是事实了,意识被操控也正在成为事实。好莱坞最有想象力的电影《盗梦空间》,就是讲如何通过梦境来操控人的意识,最多可以有四层梦境。在大数据时代,《盗梦空间》里所说的意识被操控并不遥远。现在用互联网来操控舆情已经不是难事。在此意义上说,做舆情分析很难,尤其是难以看到里面真实的舆情。

在大数据时代,个体只是大数据里面的一个单位,只有机构才有能力使用大数据。一个可以预想的结果就是国家与社会关系的张力加大,国家要站在国家安全的立场,个体要站在个体隐私的立场,这两者之间存在着根本的冲突。在不同的文化情境中,这种张力的大小可能有差异,但这种张力的存在是没有差异的。现在地方政府面临一个很大的挑战就是信息的倒流,中央及各个部委都有大数据分析,都有舆情监测,发生什么事情往往都是第一时间知道,而属地政府越往下,可能知道得越晚。究其原因,一是没有大数据和舆情监测的意识,二是没有足够的人力和财力。因此,如果说互联网意味国家向社会的分权,大数据则意味着权力重新向国家集中。


大数据的新兴风险如何治理

对于这个问题,目前可以考虑三点:第一,在目标上可能要宽容一些,不要想试图消灭风险,不可能做到零风险,也不要试图去超前防范风险,那样就不可能有任何的创新了。一个合适的目标是,把风险控制在可以接受的水平。在中国的文化情境中,什么水平的风险是可以接受的,需要进行深入的研究;而且,随着时代情境、文化情境的变化,可接受的风险也是不断变化的。

20世纪70年代,美国心理学家斯达尔就有一个著名的论断:安全本身不是问题,多安全才算安全才是问题。他通过量化研究得出的一些结论很有意思。

例如,自愿承担的风险的可接受性比非自愿承担的风险的可接受性高一千倍。那么对个体而言,大数据的风险是自愿接受的风险,还是非自愿接受的风险?个体之间可能有差异,还不好作出一个笼统的判断。

第二,在机制上要实现多元化。风险的治理是非常纠结的,因为风险从来都不是独立存在的,而通常都是和创新、收益一起出现的。风险治理不像应急管理那样容易形成共识。风险治理的主体非常分散,如果缺乏共识,风险治理很难达成一致行动。总体上看,风险治理有几种基本的手段。

一是风险规制。这主要是行政学和法学的概念,我们也翻译成管制监管。在西方,规制主要是指在市场机制解决不了的地方,由政府来干预,规制这个概念本身就强调政府要积极承担角色。在中国,政府本身就是积极作为的,因此规制是普遍存在的,当然,很多时候并不是通过法律的形式,而是通过运动式治理的方式。目前,在个体隐私的保护上,对大数据应用的法律规制总体上还是缺位的,虽然一些出售个人信息的行为已经受到了法律的惩罚,但这种案例还是比较少见的,大量的违法行为都缺乏监管。

二是风险沟通。风险规制要发挥作用,还要依赖于风险沟通,这里面包括一些风险提示,比较典型的就是现在互联网金融和金融诈骗。例如,老年人到银行汇款,银行的工作人员都会进行风险提示,关于互联网金融的风险提示也在加强,当然,很多时候在预期收益的吸引下,风险提示并没有发挥作用,这也是金融领域风险高发的原因之一。

三是风险感知。风险沟通发挥作用主要是通过风险感知来调节个体防护行为。在本质上,安全是一个价值选择,每一个个体应该有自己选择的权利,也就需要承担相应的责任,个体可以选择更多地承担风险,那就不可能有太多的安全;如果需要更多的安全,就不能承担太多的风险。有的个体是风险厌恶型的,不想承担很多风险,不想有不确定性,这是可以自由选择的;有的个体是风险偏好型的,愿意多承担风险,喜欢有一定的不确定性,这也可以自由选择。

第三,在结果上要强调整体性。风险治理主要强调一种整体性,通常也称为整体性风险治理。换言之,风险治理是集体行动的结果,需要破解集体行动的困境。在这个方面,有很多的问题需要研究,例如风险所有权的确定和风险的多中心治理等。


适应性治理:大数据新兴风险治理的出路

在风险社会的历史情境下,风险治理并没有一劳永逸的方案,只有折衷权衡。

一是要在创新激励和风险治理之间进行权衡,激励创新就可能带来风险,治理风险就可能抑制创新。二是要在国家安全与个体自由之间进行权衡,要国家安全就可能会限制个体自由,要个体自由就可能危及安全。三是要在便利和隐私之间进行权衡,要便利就可能泄漏隐私,要隐私就没那么多便利。

而风险治理本身也存在着悖论。正如拉什所言,为治理风险的努力可能会引发更大的风险。美国2005年的卡特里娜飓风即是此例,三百年间对庞恰雷恩湖的小修补最终导致了一次大漫灌

在风险的治理中,折衷权衡的本质就是适应性治理,我们无法预设理想的治理形态,而只能根据环境的变化来不断调整。[本文系国家社科基金重大专项防范和化解重大风险研究17VZL018)、国家社科基金重点项目新兴风险与公共安全体系的适应能力研究13AGL009)阶段性成果]




数字利维坦的内在风险与数据治理

唐皇凤


数字利维坦的现实风险

大数据为人类生活创造出前所未有的可量化维度,一切皆可量化成为大数据时代人们普遍尊崇的信条。随着大数据、物联网、云计算、人工智能等现代技术的发展,人们每时每刻都在共享海量数据给人类的日常生活、公共服务和国家治理带来的好处和便利,数据的科学性、客观性成为政策制定和国家治理合理性、恰适性的根本保障,数据治国成为绝大部分现代国家实现有效治理的战略选择和典型范式。但是,硬币的另一面是,个体在复杂的大数据技术面前的渺小感、无助感和绝望感油然而生,人类被数字技术奴役的现象日益凸显,信息技术的发展不仅孕育着走向数字民主的巨大机会,而且潜伏着滑向数字利维坦digitalLeviathan)而异化的现实风险和新型危机,具体体现为:

(一)数字利维坦严重威胁公民的隐私保护和合法权益。隐私是不同个体之间的天然分界线,保护个人隐私和合法权益是现代社会的重要基石。当人类生活在一个智能设备满天飞、网络信息无处不在的时代,通过人们在社交网站中写入的信息、智能手机显示的位置信息等多种数据组合,尤其是数据内容的交叉检验,大数据技术已经可以非常容易而精准地锁定具体的个人。现代数字信息技术的出现,使得对个体的监视变得更容易、更严密、低成本和高效能。因此,我们越来越多的个人基本信息、日常言行、运动轨迹甚至欲望偏好,通过手机、网络、生物传感器等都可能随时被感知、被发现、被搜集、被分析和被应用,人们成为被第三眼看得一清二楚的光猪,公民几乎无任何隐私权利可言。更为重要的是,大数据巨大的二次利用价值,无所不在的数据收集技术和专业多样的数据处理技术,大幅降低了数据用户对其个人信息的自决权利,彻底颠覆了传统以个人为中心以告知与许可为基本原则以匿名化为基本方式的隐私保护制度。同时,在数字鸿沟无法在短时期内彻底改观的背景下,国家可以充分运用现代信息技术增强其社会监控能力,打造一个极富效率的数字利维坦,而大数据技术对公民合法权益的保障功能反而更容易被边缘化。大数据时代,依据不具有代表性的数据所做的公共决策,必然会忽略信息时代的缺席者——数字鸿沟中规模庞大的边缘人群,众多无法在网络世界中有效表达情绪、意见、偏好和利益诉求的人,也就无法进入决策者的视野。数据治国反而会进一步加剧旧有的社会分化,拉大不同阶层和区域公共服务供给的差异化程度,加剧数字歧视等社会公平正义问题,因针对特定个人施加标签化的等级划分或进行差别化的价格歧视而导致公民合法权益的侵害。

(二)数字利维坦禁锢人类的自由意志和道德选择。数字利维坦往往导致人们对于数据分析结果客观性、科学性的盲目崇拜,人们大量运用大数据预测来判断和惩罚人类的潜在行为,冒险把数据分析的结果作为给罪犯量刑和定罪的重要依据,轻视执法和司法决策过程中深思熟虑的重要性,最终可能导致对公平公正以及自由意志的亵渎。在一个通过大数据技术可以准确预知未来的世界里,罪犯在实施犯罪前就已受到了惩罚,罪责的判定是基于对个人未来行为的预测,这个令人不安的社会正是不受限制的数字利维坦的恐怖前景。在美国,30多个州的假释委员会正使用数据分析来决定是释放还是继续监禁某人。越来越多的美国城市采用基于大数据分析的预测警务来决定哪些街道、群体或者个人需要更严密的监控,仅仅因为算法系统指出他们更有可能犯罪。美国国土安全部正在研发一套名为未来行为检测技术(FutureAttributeScreeningTechnolo-gy)的安全系统,通过监控个人的生命体征、肢体语言和其他生理模式,以及监控人类行为可以发现其不良意图,最终发现潜在的恐怖分子。正是因为大数据分析更完善、更精准、更具体和更个性化,我们可以用大数据来预防和惩罚犯罪。但是这很危险,因为基于未来可能行为之上的惩罚,不仅会禁锢人类创造力的源泉——自由选择的可能性,而且也是对公平正义的亵渎——其基础只能是人只有做了某事才需要对它负责。在数字利维坦的背景下,如果大数据分析完全准确,那么我们的未来会被精准地预测,人们不仅会丧失道德选择的权利,而且也会因失去自由意志而丧失社会责任。也许,大数据预测可以为我们打造一个更安全、更高效的社会,但是却否定了我们之所以为人的重要组成部分——自由选择的能力和行为责任自负。数字利维坦让我们生活在一个没有独立选择和自由意志的社会,人们的道德指标被预测系统所取代,人类被禁锢于无限的可能性之中。

(三)数字利维坦可能引爆信息和国家安全问题。在数据成为国家基础性战略资源和社会关键性生产要素的今天,数据安全是国家安全的基础,两者同生共息,联系日益紧密。近年来全球数据安全事件层出不穷,数据安全成为世界各国普遍关注的热点问题。20171月,大数据基础软件陷入了一场全球范围的大规模勒索攻击,Hadoop集群被黑客锁定为攻击对象,因Hadoop服务器配置不当导致5120TB数据暴露在公网上,涉及近4500HDFS服务器,有效治理数据安全问题的紧迫性日益彰显。随着数据来源及其种类的广泛性、多样性剧增,各种数据的真实可信性和完整准确性成为影响国家治理质量和水平的关键变量,也是影响社会稳定和国家安全的重要因素。首先,来自多个用户的数据可能存储在同一个数据池中,并分别被不同用户使用,数据的应用场景和功能角色愈加多样化,数据泄露的风险显著增加。其次,大数据的挖掘分析技术可能涉及经济运行、社会治理、国家安全等敏感信息,大数据存储、计算、分析和应用等关键技术的创新演进,导致数字信息技术的各种软件、硬件、规则体系等方面引入未知的漏洞,数据和信息安全的隐患明显膨胀。再次,现有大数据平台大多基于Hadoop框架进行二次开发,缺乏有效的安全机制,安全保障能力仍然较低。最后,大数据技术发展催生出新型高级的网络攻击手段,如针对大数据平台的高级持续性威胁(APT)和大规模分布式拒绝服务(DDoS)攻击时有发生,网络攻击、数据泄露等信息安全风险大幅增多。在数字利维坦的背景下,国家各种信息基础设施和重要机构更容易成为攻击目标,网络恐怖主义势力可能侵入人们生活的方方面面。各个国家在自然资源、生态环境、交通金融、社会民生、商业军事等方面都高度依赖于信息网络,更容易遭受信息武器的攻击,且网络的脆弱性、信息自身的不安全性、决策的不可靠性等都会加剧国家安全所遭受的风险和挑战。

(四)数字利维坦导致数字威权和数据独裁,加剧寡头统治的风险。人类社会全面数字化的速度,超过一般人的想象,来自不同领域的著名专家都在警告人类社会即将来临的数字独裁。维克托?迈尔-舍恩伯格和肯尼思?库克耶在《大数据时代:生活、工作与思维的大变革》中指出,滥用大数据的结果是导致数据独裁,使人成为数据的奴隶。随着机器学习与人工智能的发展,人类可以创造出比人本身更了解自己的算法。一旦这些算法可以知道我们的欲望,操纵我们的情绪,甚至替我们做决定,或许中心化的信息处理方式更具效率,但人类就有可能生活在数字威权和数据独裁的制度中。美国正在打造遍及全球的监视网,许多国家也试图通过社会信用系统、网格化管理体系、数以百万计的摄像头、防火长城等数字信息技术,建立全领域全方位覆盖的监控系统,大步迈向数字极权国家。詹姆斯?斯科特在《国家的视角》一书中忠实地记录了政府如何因为对量化数据和指标的盲目崇尚而陷人民于水深火热之中的情景,数据使用成为权力的武器和帮凶,这就是数字威权和数据独裁被放大的真实写照。数字利维坦诱使我们盲目信任数据的力量和潜能而忽略其局限性。研究发现,随着数字社区规模的增大,其权力集中的特质也将逐步加强,数字威权和数据独裁似乎成为大数据时代无法避免的厄运。数字社区的组织形式几乎都是现实幂次定律的翻版,由小部分精英用户贡献绝大多数的社区内容,且用户数量越增加,管理员的相对比例就越低,也越容易动用管理权限删除其他普通用户的内容,网络空间依然难逃寡头统治的铁律和宿命。

(五)数字利维坦可能成为极端主义的温床,加剧社会碎裂化的风险。作为一种软性的技术决定论,数字利维坦虽然并不认为信息能够决定一切,但仍会主张现代信息技术是塑造社会运行轨迹的首要力量,是国家和经济实体操控各种治理术的基础性支撑。在数字利维坦的环境中,极端主义观念更容易兴起和广泛扩散,社交媒体上极端思潮的崛起就是透视数字利维坦涌现的最佳窗口。当数字利维坦完全掌握人类社会后,数字政治社群就成为在一个封闭环境中培养各种极端主义的温室。当前欧洲各国极端主义的兴起,被普遍视为数字化潮流撕裂原生社会、召唤数字利维坦的初期症状,如数字化在德国就为保守的极端主义的兴起而推波助澜。随着过滤泡泡等推荐算法的兴起,人们开始更多相信网络平台鼓励人们抱团取暖、党同伐异,从而强化了极端观点。脸书和谷歌等互联网巨头作为垄断的中心权力,在积极规范一种去中心、点对点的秩序,间接为极端政治推波助澜。很多极端政党,比如希腊的金色黎明党,仍然主要依靠YouTube和脸书进行宣传。极端主义思潮越是受到主流社会的排斥,其运用另类网络空间进行组织动员的能力就越强。同时,在不同人群对新兴数字资源进行激烈争夺之时,数字利维坦也在不断制造和助推着群体隔离和社会分裂的过程,加剧社会碎裂化的风险。在数字利维坦的背景下,网络资源的控制程度成为社会群体分层的新指标,对数字信息技术的控制程度是阶层地位和社会身份的显著标志,数字鸿沟中的精英阶层赚得盆满钵满,而中下层社会群体则被日益边缘化,进而成为数字信息技术的奴隶,大幅加剧社会极化的程度,甚至成为社会群体相互隔离和对抗的直接诱因。这种虚拟空间的群体极化现象在与现实社会政治生活深度互动的过程中,可能进一步激化现实生活中广泛存在的官民矛盾、贫富矛盾、劳资矛盾、城乡矛盾和阶层矛盾等社会矛盾,使群体隔离逐步演化为社会对抗。


寻求科学有效的数据治理之道

在大数据时代,我们一方面要高度重视数据在社会经济发展和国家治理中的基础性支撑作用;另一方面也要预先防范和积极治理数字利维坦可能导致的社会风险,寻求科学有效的数据治理之道。

首先,以确保人类自由为中心,重新定义公平公正的概念。数字信息技术并不是一个仅仅充斥着算法和机器的冰冷世界,仍需要人类扮演重要角色。即使数据分析的力量越来越强大,人类独有的情感、欲望、非理性、弱点、错觉和错误等都是十分必要的,因为这些特性是人类创造力、直觉和天赋的源泉。人天生不完美,由人造就的现实世界因充满不确定性而具有无穷的可能性,而这种不完美性、不确定性所产生的可能性,却是人之为人的本质属性。人性潜能中的多种可能性,也是我们最终能够驾驭数字利维坦的根本依据和内在力量。在数字利维坦的世界中,创意、直觉、冒险精神和知识野心等人类特性的培养显得尤为重要,人类文明的进步正是源自我们的独创性,保障人类自由是数字利维坦风险救济之道的底线原则。当然,我们也需要向那些可能受害于数字利维坦、因之被剥夺各种合法权益的个体或群体提供各种有效的支持。我们必须拓宽对公平公正的理解,重新定义公平公正的意义,政府只能依法追究我们过去的真实行为,而不能追究大数据预测到的未来行为。在具体的数据治理过程中,必须严格遵循公开、公正和可反驳原则,即所有用于预测分析的数据和算法系统必须向社会和民众公开,只能运用第三方专家认可或司法机构公证的可靠、有效的算法系统,以及个人可以对数据和算法系统进行辩论和反驳,数据使用者和管理者有责任和义务接受公开听证和质询,并对数据所有权的拥有者及时予以释疑解惑和权益保障。

其次,以数据新政为基础,构建自由与责任并举的数据治理制度体系。被誉为可穿戴计算之父的阿莱克斯?彭特兰在《智慧社会:大数据与社会物理学》一书中强调,数据新政就是要建立更精细而有力的隐私保护工具,既允许我们使用个人数据来建造一个更好的社会,以数据共享来促进更大的想法流,进而产生更高的生产率和更多的创意性产品,又能有效保障公民权利,把公民自身数据的所有权、控制权和处置权或发布权交还给公民个人。目前,人们对传统的数据治理规则体系的修补已经无法满足现实发展需要,也不足以抑制数字利维坦所蕴含的内生风险,人类需要打造自由和责任并举的全新数据治理制度体系。这种治理制度的关键在于确立隐私保护的核心准则——让人们自主决定是否、如何以及经由谁来处理自身的信息,牢固掌控个人信息的控制权,并确保个人数据处理器、数据使用者对其行为承担更多的责任。同时,数据的生产者、使用者和管理者应建立全过程、可回溯的动态监控制度,规范数据使用者在数据治理过程中的风险评估、风险规避和危机应对行为。要有效防范数字利维坦的危害和风险,我们既需要加强大数据安全立法,明确数据安全主体责任,也需要在数据利用和共享合作等关键环节加强数据治理的监管和执法。

最后,以发展技术手段为基础,构建数据治理的多元合作共治模式,不断提升人类的数据治理能力。有效遏制数字利维坦的负面消极影响,成败的关键在于调整人类社会与数字技术之间的互动关系,实现数字技术与整个现代社会的共存、共融与共生。在大数据时代,我们要加强数据防攻击、防泄露、防窃取等技术手段建设,强化数据安全监测、预警、控制和应急处置能力,鼓励世界各国政府、国际组织、企业、社会组织、研究机构合作开发数据脱敏、数据审计、数据备份、同态加密、多方安全计算等前沿的数据治理技术,建立健全数据治理体系,以多元合作共治机制切实提升数据治理现代化的能力和水平。

大数据的力量和光芒是如此耀眼,人类很容易陷入数字利维坦的诱惑和陷阱之中。我们必须时刻警惕数字利维坦的内在风险,并善于发现它固有的瑕疵,构建完整的应急预案和风险治理机制。人们在使用数字信息技术工具之时,应当怀有谦恭之心,铭记人性之本。人是万物之灵,无论在什么时代,也无论科技发展到什么程度,维护人类的自由、尊严和责任,都是技术发展和国家治理不可逾越的底线原则。我们必须遵循价值理性优先基础上价值理性和工具理性之间有机平衡的根本原则,确保人类生活不被数字利维坦所主宰,而是让数字信息技术更好地服务于人类的美好生活需要。




大数据+智能化时代社会的沦陷与治理

仇立平


如何看待大数据+智能化下的社会治理,以及大数据+智能化下的社会治理将会对社会发展产生什么影响?我认为,首先需要分清一般社会治理和大数据+智能化下的社会治理,它们各自的社会生成空间在哪里?

大数据+智能化时代社会发展可能存在的风险很多研究表明,大数据+智能化之下社会治理将会有利于社会发育,以及满足人们对美好生活的向往和需求。而我的问题是:当大数据、人工智能与国家、资本的力量结合起来时,社会的空间在哪里?以下几种可能的风险值得我们反思和警惕:

一是大数据+智能化提供的精准服务和个性化管理将有可能加剧阶层固化。也就是说,建立在智能化基础上的大数据所提供的精准服务和个性化管理,将会因人而异,你属于什么阶层,智能化就会提供什么服务。最典型的例子就是滴滴打车用的手机不同,价格也不同,用苹果手机打车费用要高于国产手机。此外,你在上网时如果经常看一些广告的话,就会有广告每天推送给你,比如想换手机,网页上的广告就是手机,想买个相机镜头,网页上的广告就是镜头。这个还是市场行为,如果推广到社会服务,会不会出现因为个性化管理或服务而导致的阶层固化,比如根据你的教育背景、你的收入、你的职业,向你推送与你社会地位相匹配的社会服务(除了基本的均等化的公共服务以外)。因此,在推行精准服务的同时,要注意社会服务整体的公正和平等。

二是城乡信息化发展非均衡将会扩大基本公共服务差异化程度。由于城乡二元体制的客观存在,城乡公共物品财政投入本来就处于非均衡化状态,城乡基本公共服务供给长期处于不均衡状态。由于城乡信息化发展的不平衡,乡村信息化发展水平远远落后于城市,因此,大数据+智能化时代的社会治理更容易忽视乡村基本公共服务的供给,进一步扩大城乡基本公共服务的非均等化供给。农村大部分民众尤其是最需要提供基本公共服务的贫困地区民众,由于缺乏在网络世界表达情绪、意见、诉求和偏好的行动能力,也就很难完全进入大数据+智能化时代政府治理的决策视野,所谓的社会治理有可能变成城市社会治理。

三是政府在大数据社会治理下可能出现对治理的技术依赖:懒政或勤政”(不作为和乱作为)。所谓懒政就是过分依赖大数据,尤其是建立在智能化基础上的大数据,有可能导致对社会规律的误判产生决策失误。举个不恰当的例子,现在国外证券市场上一些大公司的股票买进卖出已经不完全依靠人工操作了,是在电脑里根据相应的程序自动操作,电脑程序会设置一个临界点,成为买进卖出的触发点,很多股票市场的崩盘就是由电脑程序自动完成的。对大数据技术的过分依赖,有可能导致常规治理体系的瘫痪,毕竟社会治理主体和客体都是人,人是有思想、有情感的,大数据记录的是过去式,很难反映即时发生的各种行为,更不能准确把握人的思想和情感。如果过分依赖大数据,实际上就把人看作是小白鼠、一个被实验的对象。所谓勤政就是朝令夕改,政策多变。通过大数据反映的社会是经常会变的,对于大数据的解读由于个人的政治立场或价值观念的不同,或者知识结构的差异,出台的政策虽然都有大数据作为依据,但可能明显不同。虽然在社会治理领域此类情况目前还没有显著呈现,但在经济治理领域如金融市场、房产市场,政策多变应该是一个不争的事实。

四是缺少法律监管的大数据容易滋生新的腐败。不少学者指出,知识的外部依赖容易导致寻租和政府俘获。目前,大数据技术企业数量偏少,能够与几家大数据分析和挖掘能力强的公司相竞争的寥寥无几,大数据行业面临垄断危险。一旦一些政府工作人员收受企业贿赂,政府决策偏袒于某些大数据企业,由权力寻租导致的政府俘获便会产生。

五是大数据+智能化下的社会治理有可能回到传统的政府管制。治理本来是因为政府失灵而提出的,它的原意是指政府和社会组织是一种伙伴关系,对社会的治理需要政府和社会组织共同合作。如果说传统的社会管制因为政府技术控制手段的缺乏,还有一些缝隙能够使普通民众具有有限的自组织活动,那么当大数据被权力和资本占有和垄断时,就可能产生所谓的治理者和被治理者,从而完全颠覆了治理概念本来的内涵,社会就将完全沦陷。在我们的一些生活世界中,大城市无处不在的监控已经实实在在地侵入到一般民众私人生活的自组织活动,哪怕是无伤大雅的自组织活动。


大数据+智能化社会治理下社会的生存空间

在传统社会里,尽管社会处在国家权力的控制下,但是社会依然存在自己的生存甚至发展空间,出现费孝通先生所说的双轨政治,至少在形式上呈现皇权不下县、县下皆自治;韦伯认为,中国的村落是无官员的自治地区等。新中国建立后,逐步建立了国家主导和全面控制的总体性治理框架,但不能完全消除人们通过策略性行为维护与日常生活有关的社会空间的努力,国家权力的强制仍然会受到来自社会的策略性抵制。改革开放以来,社会治理所依托的组织制度框架开始弱化乃至于解体,单位制逐步松动,新兴社会力量的兴起使社会得到了一定的发育,在强国家治理理念主导下,逐步形成了以政府为主多方参与的社会治理格局,一个有限的社会正在发展之中。

那么,在大数据+智能化社会治理下,社会的生存空间在哪里,尤其是在权力和资本的控制下,社会还有没有发育的可能?

首先,在国家主导和全面控制的总体性治理框架下,社会生存的隙缝在无所不在的监控下将可能会荡然无存。当一个国家的民众都生活在探照灯似的遍布城市的街头摄像头下,它虽然会给人一种安全感,但是这种安全感建立在权力受到宪法和法律制约之下。一旦权力失控或者自以为是在为人民做好事时,这种无时不在的监控就有可能侵犯个人的隐私,在保障国家安全的名义下理直气壮地监控公民的行为。最为典型的就是美国在“9?11”后颁布的

《爱国者法案》,国家可以对公民进行信件、电话监控,甚至可以在情况不确定的情况下对公民进行单独审判;政府对公民举报涉嫌危害安全给予鼓励。

如果说面对恐怖主义的威胁,美国民众只好以牺牲自由换取安全,那么大数据+智能化下的社会治理,一方面提供各种生活上的便利和安全,另一方面也可能以社会的沦陷作为交换条件。

其次,大数据的占有者无疑是权力和资本。现在的大数据都掌握在几家大型网络公司,但将会统一由政府监管。最近我国央行出台的对支付手段的监管政策说明,国家已经看到金融大数据如果不掌握在国家手里,将会出现无法估计的金融危机。对于一般民众来说,大数据的出现将会加剧更严重的信息不对称,有可能形成自上而下的管制格局。

再次,从政治哲学的视角看,在人工智能时代将会出现如科幻小说《三体》中描述的降维攻击,即将攻击目标本身所处的空间维度降低,致使目标无法在低维度的空间中生存从而毁灭目标。而在非智能化时代,一些国家和地区已经存在驱逐非我族类、低端移民的所谓降维攻击。当大数据+智能化技术被权力和资本垄断,一个多样化的社会将可能不复存在。


如何应对一个新的风险社会

因此,大数据+智能化时代的社会治理很可能面临一个新的风险社会。如同贝克所说的,风险社会肇始于自然的终结,开始于传统的终结。按照贝克和吉登斯的风险社会理论,现代风险产生于现代社会的制度之中,是现代性制度变异过程中的产物,是一种制度性风险和非预期性后果。风险社会来自工业社会内在的制度结构中,是工业社会自身的悖论。风险社会同时是现代性的意外后果,因为行动的后果总是不断地脱离最初发起行动的人的控制范围,系统再生产的结构性条件将会否定系统本身。

风险社会的来临源于现存制度的危机,现代性导致后期工业社会包括关键性制度在内的根本性制度危机,产生有组织的不负责任。因此,风险社会本身就是与现代性相伴随。

大数据+智能化的社会实际上也如吉登斯所说,社会是被无数人有意或无意的行动建构起来的,或者说人们是在一个被制约的社会建构一个制约自己的社会。如果说传统社会建构还仅仅是方法论意义上的,那么大数据+智能化的社会是切切实实地记录社会是如何运行的,社会又将如何被复制创新。大数据+智能化社会治理下的社会就有可能成为一个被规制的社会,进而成为一个新的风险社会,这也是大数据+智能化时代社会治理的意外后果。

如果说贝克时代的风险社会是来自工业社会的科学技术发展,最终发生生态危机、全球经济危机和国际恐怖主义,从而导致社会总危机,那么,大数据+智能化时代的风险社会依然来自对科学技术的理性崇拜,并且是在民众对美好生活的向往和对个人安全的需求下,自愿地交换个人隐私。如果说贝克时代的风险社会还有可能发展成新社会运动,用以抵御风险社会,那么大数据+智能化社会治理必须警惕,新的风险社会有可能由于民众自愿出卖权利,而导致社会的泯灭

预防可能发生的大数据+智能化治理下新的风险社会,关键是要建立一套完整的、系统的对大数据+智能化的监管制度和法律,确保信息的提供者同时也是信息的监督者。

比如,尽快制定有关大数据+智能化监管制度和法律,切实保证大数据+智能化有法可依,详尽地界定安全的定义和内涵;严格控制有关部门以维护安全的名义侵犯民众的权利;有关部门应该每年向相关机构汇报或陈述大数据+智能化的管理和使用,并接受民众的质询。我们应该认识到一个多样性的社会是社会发展的客观结果,对于没有违反国家法律,或者国家法律没有规定的民众的行为不应随意干预。同时,发育和健全网络社会,赋予民众在网络上的合法权利,通过网络监督大数据+智能化的管理者和使用者。[本次圆桌会议得到华东理工大学唐有财教授与何雪松教授的大力支持,特致谢意。]