治理算法化的证成与风险:如何理解人工智能的治理属性

摘 要:人工智能对于治理領域产生的变革要求在理论上予以重构与创新,将人工智能置于治理的内部“理论证成”与外部“风险识别”的二阶结构中提出并论证治理算法化这一分析框架,不失为一条在人工智能时代探讨治理变革的有益进路。治理算法化成立的先决条件除了“可计算化”模块的努力之外,更重要的是重塑治理的边界。其源起既是治理信任补强之需,亦有个体化时代建构集体行动之必要。治理算法化应始终秉持以人为尺度的应用逻辑。治理算法化存在“道”与“术”的异步困境,即存在商业逻辑优先于治理逻辑、算法偏见内化为公共理性、技术权力泛化为液态监控以及拟态真实取代治理情境等风险。因此,治理算法化仍须进一步促进技术与人的和谐关系。

关键词:人工智能;治理算法化;大数据;算法偏见;机器学习

中图分类号:D035 文献标识码:A 文章编号:1008-7168(2022)01-0013-12

算法,一个存在已久的技术术语,随着人工智能和大数据的发展以迅猛的态势深入人们的生活。“算法”本质上就是一些复杂的电脑代码程式,但随着人类在人工智能的道路上不断开疆拓土,它的意义已经远超其原初单纯的技术属性而被附着众多的意义和评价,其广泛渗透于政治、经济、文化等各领域,作为技术要素影响、参与甚至引领革命性变革。在经济领域,算法表现为技术资本在数字经济市场中的利益追求工具;在文化领域,愈发形成并固化为技术特质下精准高效、人群分化的文化传播;而在政治领域,则化身为一种新的权力形态,高度聚焦于政治决策的智能化、政治治理的精准性以及政治传播的针对性。算法根据其运用领域和作用主体的不同,产生差异化的技术效益与治理效能。而在这个过程中,不仅该领域的系统本身被改革,贯穿其中的算法亦几经流转而重新“粉墨登场”。这既是一种系统的思维,更是一种演进的视角。要讨论一种社会中新出现的技术,除了考虑它是被用来解决什么问题以及它所产生的各种效应之外,在这个基础上论证这样的意图以及效应是如何产生的同样重要。因此,在治理与算法的“联姻”中,除了将治理作为一个待解释变量,理解算法统摄下的技术变迁可能会使治理本身产生什么样的转型之外,亦需要关注以及论证这种转型的合法性基础,以及治理的非技术因素与人工智能的算法因素之间将以何种方式互嵌互构。

一、论证的基点:名正而后言顺

(一)治理算法化:一个分析性框架

虽然算法近些年开始流行起来,但它并不是新生事物。纵观算法的发展史,有关它的概念释义不仅多元而且发展迅速,如若粗略划分,目前学界对于算法的阐释主要基于自然科技史和技术社会学两个视角。

从科技史的发展来看,早在中国商周时期,汉语中的“术”字就有推理、算术、逻辑之意。公元8世纪的波斯,著名数学家阿尔·花拉子米(AlKhowarizmi)将算法作为一个独立概念提出,意指“能够运行的系统性计算”①。公元1202年,意大利著名数学家斐波那契(Leonardo Fibonacci)的传世之作《计算之术》问世,其后,算法的概念逐渐在欧洲流行,并在19世纪成为数学家们讨论的重要概念。20世纪90年代中期电子计算机的问世,使得代码与算法高度关联,在网络世界中“代码即法律”的信仰之下,算法成为逻辑和规则的代名词。近年来,伴随计算机智能化水平的不断升级,算法开始指向更具预示性和模糊性的含义,任何涉及人类社会复杂的决策系统都与算法相关。相较于自然科学,技术社会学的视角则更加关注算法在社会、文化和各种体系结构下的嵌入路径和影响。古典政治经济学创始人威廉·配第(William Petty)曾在《政治算术》中指出:“凡关于统治的事项,以及同君主的荣耀、人民的幸福和繁盛有极大关系的事项,都可以用算术的一般法则加以论证。”[1](pp.1-2)这一观念使新兴的概率论与统计学在经济社会和政治领域得到了广泛应用,人们开始以对各种社会问题的可量化和可测度作为科学客观性的指标,予以承认和信赖,并将技术迭代视作文明演进的主要元素以及人性不可分割的部分。在这方面,已有不少学者就技术的社会化建构问题进行了探讨。如福柯(Michel Foucault)以“圆形监狱”作为比喻,探讨了技术与规训之间的关系[2];麦克卢汉(Marshall McLuhan)则在泛媒介论的基础上,提出了“媒介即讯息”的著名命题[3];基特勒(Fredirch Kittler)走得更远,他认为,人体和机器的界限不再清晰,身体更可能沦为技术的客体[4];而阿甘本(Giorgio Agamben)则以“装置”重申了福柯的技术哲学思想[5]。技术的无远弗届和强大的渗透性,让整个社会系统“改头换面”。这一源远流长的技术思想使我们不必受困于对算法乌托邦式的计算观。当然,伴随当下信息技术的演进,算法迭代日益加速,任何一种单一的学科视角都已经无法全面涵盖对算法的全部认识。一种历史和互动的回顾,为我们理解当下信息社会算法的多元面向和表征意义提供了新的可能和价值基准。

在我们的一贯认知中,高度的智能与发达的意识一向是两个形影不离的概念,只有具有意识的个体,才能执行需要高度智能的任务,如下棋、开车、诊治、提供法律意见,或者辨认出恐怖分子。然而,进入人工智能时代后,基于算法模式的“无意识智能”开始兴起,并在解决人类社会的很多问题上表现优越,这让我们无法避免将面临这样一个问题,那些原来必须依靠人类意识才能完成的复杂治理任务,能否由算法来实现?如果成立,这一模式是否适用于我们目前生活的公共领域?如果普遍适用,这种新的治理模式最大的特征是什么?讨论至此,一个自然而然的概念呼之欲出,即治理算法化。回到公共领域的治理行为,显然,对算法更为精确的定义或许是,它是从数字逻辑和数据形式内外双重维度塑造治理预设目标并提供决策结果的行为主体,而不仅仅是治理手段或工具。在已有文献中,基于治理的算法是一个显而易见的现象,但治理算法化却是一个偶有被提及但未被细化的概念框架。笔者认为,就治理算法化的概念和现象进行辨析和审视,不仅是必须的,也是紧迫的。一方面,治理算法化已经不再是理论上的“空中楼阁”,而是超越了传统治理技术范畴的实在现象。治理算法化不能被简化为治理与算法结合的过程与结果,而应被视为以人工智能为代表的数字技术治理内在融合与对抗的一体两面。换句话说,相较之下,治理算法化这一概念更为凸显的是算法全面嵌入之下的科层治理与技术治理如何互动形成复杂的结构体。不同于简·E·芳汀(Jane E.Fountain)提出的技术执行理论,在这里,算法不仅是被执行的“技术对象”(technical object),亦是治理主体。另一方面,作为信息技术时代治理的演进模式,治理算法化在创造了新的控制方法时,也制造了新的问题,甚至控制这些新问题的难度要远大于控制传统治理问题的难度。因此,在凡事必提“智能”的话语风靡时期,笔者并不愿意去跟随赞乐的音符和节拍,而是试图以一种中立、客观、冷静的视角和立场,尝试展现智能系统与人类对于社会治理权“明争暗夺”的背后隐匿了怎样的运行逻辑,以及由此带来的智能化的政治经济社会体系变革是一番怎样的景象。本文作为一项理论研究,承接这一研究脉络,以超越算法的计算性和逻辑推理性之外的视角阐释治理算法化的建构意义,内窥其中的风险,最终评判治理算法化的价值,进而赋予治理算法化积极的实践意义。

(二)治理算法化的先决条件:治理边界的重塑

人类大脑对复杂选择做出判断时的意识与行动之间的微妙关系一直是学界的焦点议题之一,将此类复杂任务交由人工智能处理时,应当保证计算机可以模拟人类大脑的活动,从认识论的角度而言,这个基础就是“认知可计算化”。当前人工智能的几大不同流派在对人工智能的认知基础上形成的共识是,通过分析和处理真实人类世界的行为数据可以帮助机器来模拟人类的认知和决策[6],而这所有一切的基础都是“有数可循”。2011年10月的美国佛罗里达州发生了一起恶性交通事故,事故原因是一名退休警察超速行驶。佛罗里达州《太阳哨兵报》的记者在查阅历年的数据后发现,这可能并不是一起偶然事件,因为开快车是警察的经常性行为。为了取证,她根据美国的《信息自由法》向当地交通管理部门申请获得了110万条当地警车通过不同高速路口收费站的原始记录,最终利用数据分析证实了由于工作需要和警察的特权意识,开快车成了警察群体的普遍习惯。可以想象,如果没有上百万条充沛的数据记录以及成熟的数据分析手段,类似于“警察群体普遍开快车”的社会问题可能永远都无法在法庭上得到证实,这种知法犯法的特权行为,也永远得不到有效的治理[7](p.274)。当个体在真实世界中的任何活动都能被事无巨细地高频记录时,就为社会可计算化提供了丰富的数据,让治理行为“有数可循”。然而,这只是治理算法化的第一步。

治理为一个相对开放的系统,有关治理理论或范式本身的形成亦经历了相当长时间的实践检验和理论分析加工,因此,将治理规则编写成代码的过程不是一个简单的数据收集和机器学习过程。治理算法化有赖于治理主体将不同领域的治理目标、价值选择、专业知识等内容“数据化”并转化为“可计算化”模块的前期努力。结论看似简单,但存在一个难以跨越的鸿沟,就是人不可能约束自己不懂的东西。Facebook数据泄露后,作为创始人的扎克伯格多次接受美国国会的质询,但媒体捕捉到并呈现在大众眼前更多的是,那些资深立法者和议员们在长达4~5个小时的质询中试图想要了解的问题却如此肤浅且空洞无物。正如有媒体指出的那样,这些问题都能通过搜索找到答案,没必要在听证会上浪费好几个小时。显然,无论是立法者、治理者、监管者抑或普通的消费者,对人工智能、大数据等技术所知的远要比我们想象得少得多,这种认知鸿沟普遍存在,而且日益加深。在实践中的具体分工是,治理者提出相关的治理目的与要求,“技术工程师”努力将这种要求转化为一系列可以被算法解读和操作的代码。但技术的掌握者是否能够准确理解治理者的真正意图或者是否能够依据不同的治理目的体系化和精确化地构建单一或复合的算法模型并进行预测?这里就可能存在一个悖论,通俗而言,就是“懂技术的人不懂治理,而懂治理的人则不懂技术”。以司法为例,案情的最终确定取决于法官大脑里那个专业而复杂的人类思维过程——自由心证,而将自由心证转换成计算机能“读懂”的程序,就成了算法判案的前提条件。

有人认为人工智能的价值并不在于模仿或者替代了人类行为,而是其深度自主的学习能力[8]。正如作为第一个战胜围棋世界冠军的人工智能机器人AlphaGo,其设计者却并非围棋顶尖大师,人工智能法官当然也可以借此进行算法的“自由心证”。但事实上,算法判案是否可行最终并不取决于技术发展的程度,而是取决于我们如何看待法律。从世俗—理性的角度出发,法律不过是治理社会的一种工具而已,繁杂的各种制度也只不过是我们设计出的一部庞大复杂的机器,“人工智能+司法”只是加速了这部机器的运转和理性计算的程度,那么人工智能法官显然是最好的选择。但问题在于一旦我们将法律彻底视为工具,这种工具性的法律是无法树立它的权威以及唤起我们的认同感的,最后我们信赖和认同的将不是法律的公正与否,而是技术的高低。为了提高治理效率,对治理的边界可以进行调整甚至模糊化处理,但须臾不可缺的是清晰可见的“红线”。亦如法官的“自由心证”或者治理者手中的自由裁量权,其更高的意义和价值在于当法律体系有漏洞之时,他可以援引不同的判例,以不同的角度解讀并矫正正义,而这里的标准是法律背后那个更高的人性存在,显然,这是人工智能无法通过被“投喂”大量的案例数据从而学习获得的。因此,治理算法化的前提条件除了“可计算化”模块的努力之外,也许更重要的在于区分并真正实践“上帝的归上帝,凯撒的归凯撒”。换言之,即重塑治理边界,在社会上形成这样的共识:“哪些是他们(算法)接触我们(个人)的点?”

二、治理算法化的源起:外困内交的选择

(一)治理信任需要技术信任的补强

信任或如格奥尔格·齐美尔(Georg Simmel)所言的,是关于他人未来行为的假设,介于“知”与“无知”之间[9]。而治理信任事实上则是基于对权力行为的一种可信赖预期,即作为一种行动类型的信任,更强调通过既往经验和对已有信息的判断以及对未来的可救济两个层面增加对未知不确定性的保障。在治理实践中,治理信任一方面可以促进以知情、增信为初衷的公共信息的公开,另一方面可以增加信任缺失的救济渠道,如通过司法机关事后的法律救济方式实现。在传统社会,这两种方式能够相互补强,但进入互联网时代后,虽然无论信息量还是信息流速都极大提升,但也引发了严重的信息不对称与隐私侵害问题。网络巨头们为获利而严重地公开、暴露个体的信息隐私,相较于此,更为严重的后果可能是,作为个体的你可能毫不知情,即使知晓也没有拒绝的余地。事实上,这也反映了信息公开在网络空间的异化,结果是,信任的倾斜使用户对“中心化”的控制主体产生“离心”以及“反向运动”。与此同时,正如2015年我国“Cookie隐私第一案”中所反映的救济效果,反转的“法律天平”离人们对算法侵权的规制期待远未达一间。可见,在这个全新的互联网时代,单凭人类价值理性难以构建起对权力运行的可信赖预期,而“以技治技”或许能实现新的平衡。正如哈贝马斯(Jürgen Harbermas)所认为的那样,当发现并掌握技术、资源和控制之间的必然规律后,技术就能补强个人决策不合理之处,以适应技术将国家转变为“合理的行政管理机构”的新身份[10](p.99)。“技术量化”所缔造的信任关系能够在权力的运行过程中构建一种公开兼具加密的保护机制。

事实上,这种做法是有成效的。在抗击新冠肺炎疫情的过程中,数字政府借助人工智能技术的各类算法治理,不仅消弭了疫情信息混沌、迟滞的困境,而且显著提升了公众对政府信息和治理能力的信任。如疫情期间诞生的健康码,经由智能技术联结规则的算法,使整个社会共同体抵达系统状态的“共享真实”,这将有效减少系统中每个参与者(包括作为行动者的政府)展开合作所需要的信任量,从而极大地提升了人际间信任与一般化的社会信任[11]。纵观人类社会的技术发展史,每一次技术的发展都伴生各种新的风险和不确定性,导致公众深陷技术治理的“迷思”之中。亦如在算法技术的发展中,机器决策的黑箱性广受诟病,但目前已经达成的共识就是通过增强技术的可靠性以及开拓技术周边措施的方式创建可以提供稳定预期和公众信任的技术环境,增加公众对算法的信任。典型的做法是利用数据挖掘技术高效识别特定算法应用中的歧视性规定和内容,最终实现技术信任对治理信任的补强,并使治理信任泛化为普遍的社会信任。例如,谷歌公司已经就一系列人工智能增强技术展开研究,如其开发的概念激活向量测试(Testing with Concept Activation Vectors,TCAV)就具有理解信号可能表现出现偏差的能力。

(二)个体化时代集体行动困境的消解

早在20多年前,互联网先驱尼葛洛庞帝(Nicholas Negroponte)就曾预言,数字化生存天然具有“赋权”的本质,这一特质将引发积极的社会变迁,在数字化的未来,人们将找到新的希望与尊严[12](p.271)。自此,个体赋权成为主流论调。特别是当信息技术日益上升为社会资源再分配的重要力量时,传统权力格局、关系模式便呈现出迥异的特征。法国哲学家吉尔伯特·西蒙栋(Gilbert Simondon)在提出“个体化”这一概念时就指出,个体化是技术对象自身发展的规则,是朝向稳定状态发展的趋势[13]。显然,技术的进步亦伴随着个体化的历程。人类个体的价值,随着技能门槛的拆除而迅速地、类性(generic)地上升[14]。在探讨网络规制时,劳伦斯·莱斯格(Lawrence Lessig)就曾明确提出“网络需要各种选择”的主张——有些选择应当由个人决定,如作者是否要主张他的版权或者公众通过何种方式保护自己的隐私,但当所规制的事项关涉价值理念的选择时就应当由集体决定[15](p.9)。从这个逻辑出发,泛化互联网时代的一个典型特征就是,主张个体权利和选择的价值意义与集体行动之间的冲突。而要化解这种冲突和矛盾,根本的解决方法就是在个体选择与集体行动之间嫁接一条柔性的转化通道。

虽然Facebook的数据泄露和对选举的操作作为一桩挑战人类尊严的丑闻影响深远,但也为我们展现了如何在智能时代实践一条“串联”个体意志、选择和行为的通路。政治学者汉斯·科曼(Hans Keman)曾经指出:“许多集体行为的问题只通过个人行为无法解决,但是由遥远的国家调节或间接的正式民主程序也不容易解决。相反,社群的自我调节,结合民主国家及其机构的权威,倒可以使问题得到解决。”[16](pp.5-6)那么,如何将原子化的个体联结为社群?如何在个体之间达成合作?从互联网发展的历程来看,经由大数据和智能算法重构的“人”,从以往统计学意义上抽象的“人”摇身一变,成为“群体画像”中那个摇曳生姿的“人”,不仅能被多层次数据标注和计算勾勒,而且可以被单独量化以及高度解析,而这正是商业资本所乐见的,因为这使他们对每个人的“量身定价”成为可能。但伴随个体“颗粒化”的同时,关乎社会秩序稳定的集体行动也在一定程度上落入到平台资本的控制之中,正如当年的Facebook丑闻。而事实上,真正对个体行为进行引导和实施操纵的正是裹挟着资本甚至政治动机的算法工具。谈及这种关乎社会秩序稳定的集体行动的重要性,一个尤为明显的例子便是网络空间中公众合意的形成与发酵过程,“由谁决定哪些社会问题成为政策问题,对于政策制定过程来说是关键性的。决定哪些问题成为政策问题,甚至比决定这些问题的解决办法更为重要”[17](p.28)。特别是在当前全球范围内民粹主义思潮不断抬头的背景下,谁掌握了控制个体认知和聚集网民合意的能力,谁就具备了催化社会集体行动的可能。由此,算法及其相关问题的重要性便不只体现在个体层面的经济和伦理意义上,更因其在公共生活中可能产生难以预估的实际后果而具备了深刻的政治意涵。在这个意义上,智能算法以其日益强大的作用力逐渐渗透到现实生活的每一处,将个体的过去、现在和未来建立联结,这种技术上的“联结”应用到公共治理领域,不仅能够集合分散的民意,更为重要的是在这个过程中,能对各方面制度和资源的进一步集聚发挥重要作用,使国家处于更有优势的地位[18]。

三、治理算法化的應用场景:以人为尺度

所有算法类型尽管理念不同,但成功的关键都聚焦于算法和数据[8]。在“算法统治”时代,算法抉择和运用成为人类主要的工作,我们应该去考虑的是在什么场景下应用哪一种算法,从而为人类的幸福带来最大的增益。技术的发展不是最终目的,人的发展才是技术发展的本质[19]。也就是说,在什么场景下应用哪种算法关键取决于能否促进人的发展。这无疑是个宏大的命题和论证过程,但却是我们推动技术极致化发展道路上不可或缺的“指明灯”。

2012年8月,中国国家发改委社会发展研究所杨宜勇所长发布了他的一项研究成果:2010年,中华民族复兴指数为6274%,这表明中国的民族复兴已经完成了大概6274%,截至2012年底,这个数字由6274%增至653%[7](p.172)。该结论一出便引发了极大的争议。批评者认为,杨先生的研究方法深刻反映了当前社会治理理念与模式中“数据迷信”的盛行,更有批评者认为,类似民族复兴这件事根本不能也不用量化。在这里我们无意评判民族复兴是否可以量化,而是据此试图厘清算法到底适用于哪些场景。对此,法国社会学家埃米尔·涂尔干(E.Durkheim)的理论具有启示价值。他在《宗教生活的基本形式》一书中,将人类社会区分为“神圣”与“世俗”两大领域[20]。所谓神圣领域,是指那些具有永恒的、完美的社会特征的领域,其中最典型的就是宗教信仰领域;而所谓世俗领域,则指那些与人们日常生活息息相关的方方面面[21]。在世俗领域,人们生活的指导原则是理性化原则,而算法在强化理性完成特定任务的绩效方面显然表现卓越。正如计算机科学泰斗高德纳(David E.Knuth)所说的,算法与目的高度匹配的场景都是算法的“应许之地”,而特定场景的目的决定适用哪种类型的算法[22]。单从这个角度而言,算法在世俗生活中只应当被区分而不应当被限制。但事实是,人类社会的诸多事务在很多时候没有明显区别世俗与神圣之间的界限。如人类的婚姻,作为其根基的爱情通常被认为是神圣的存在,但现实的婚姻生活却始终围绕着“柴米油盐酱醋茶”。而人类社会之所以能够存在,生活于其中的个体之所以能够彼此团结起来而不至于一盘散沙,所依赖的绝不仅仅是一种理性的“利己主义”精神;相反,人们需要的是一种超越现实的“观念真实”,这种“观念真实”的存在无法用理性来衡量和辩论,甚至只可意会不可言传,但也只有通过这种“观念真实”,人们才能够在彼此之间找到共同的社会属性,进而结成一个具有团结性的有机社会。

人类社会活动所追求的目标价值从来就充满了悖论,而技术的发展不仅不会消除这种悖论反而会使这种冲突和矛盾空前凸显。这也就意味着,即使当人工智能进化到能满足人类所有的物质欲望,乃至在精神结构上取代“神”的位置,人类作为一个社会共同体、命运共同体的精神本质问题仍然不会消失。这也决定了区分算法在人类社会生活中的应用场景也许并不是一个明智之举,而更值得我们去做的可能是坚持一种韦伯意义上的价值理性。虽然有研究指出,在未来可能赋予强人工智能以人类价值,但人类价值观的积累过程是人类相关基因机理经历成千上万年进化的结果,模仿并复现这一过程非常困难[23]。相比对未来强人工智能进行设计构想,在实践层面,各国已经通过积极设计方案来应对算法危机带来的多重挑战。如欧盟通过赋予数据主体反对权和解释权等新型算法权利来对抗算法的“侵蚀”;美国则遵循技术正当程序的思路,赋予公众对公用事业领域算法应用的知情、参与、异议和救济等程序性权利,着力构筑以算法问责为核心的外部治理框架[24]。无论是凸显解释权的核心地位,还是加强对算法的问责,都旨在避免当算法在社会治理过程中逐渐成为建构人们生存环境的决定性力量时,人们可能日益沦为算法“附庸”的风险。不同的算法治理路径反映了迥异的治理传统、制度基础和治理效能,但须臾未曾偏离也不能偏离的价值核心是以人为尺度。

四、治理算法化的风险:

“道”与“术”的异步困境

治理算法化旨在利用算法重塑一个更加客观精准的现实世界,毋庸置疑,就技术层面而言,算法并无价值倾向,但改善问题的系统却往往可能反过来使问题更为严重。算法的背后无可避免交织着的是资本的商业逻辑与智能官僚主义的滥觞。其大规模应用更是引发了诸多质疑和警惕,算法歧视、算法“黑箱”、“监视资本主义”等概念的提出更为具体地揭示了算法应用中的风险形态。算法在给治理系统带来便利与福利的同时,极易触发意外未知风险从而侵蚀社会的公平正义。而究其根本,则在于治理之“道”与治理之“术”的异步困境。

(一)商业逻辑优先于治理逻辑

任何一项技术的研发和运用都意味着巨额资金的投入。显而易见,只有雄厚的资本才能支撑算法的研发和持续优化,而谷歌、微软、苹果等互联网巨头公司是算法的主要投资主体。但资本的介入,無疑赋予了算法天然的逐利性,成本—收益的商业逻辑被投资方奉为圭臬,因为“掌握了数据就意味着掌握了资本和财富,掌握了算法就意味着掌握了话语权和规制权”[25]。而与此同时,一群“算法影子官僚”②顺势而生,伴随算法在公共领域的大规模运用,商业逻辑的盈利思维开始渗透进以公共价值为主导的治理领域。而算法技术的高度不对称赋予了这群“算法影子官僚”更高的议价能力,从而使其能够名正言顺地汲取超额的公共财政资金。几乎所有的算法技术公司都不断地向政府兜售新的版本,而不管政府是否真的需要。事实上,即使没有超级平台的垄断优势,基于缓解治理压力的考量,公共部门也会日益依赖于算法技术进行日常管理和决策,而这很可能使人的主动意识、理性精神、自觉担当消失于无形[26]。相比于对公共财政资金的攫取,更为严重的后果是,算法逻辑在公共领域占据绝对权威,会导致公共权力屈服于技术公司及其开发人员的私人控制,而算法植入、算法俘获以及算法支配等方式都使得这种私人控制更为隐蔽。以健康码数据常态化应用为例,健康码在研发和使用过程中不可避免会引发“被动监管俘获”,具有国家垄断权力的监管者被市场垄断者“俘获”,实现垄断权力和垄断利润的联动和共谋,未来或将成为侵犯公权力和私权利的最主要方式[27]。政府虽基于限定目的使用健康码数据,但由于健康码数据的精确性和动态性较强,经处理后具有极高的商业利用价值,因此很容易成为医药公司、私立医院、科技公司等市场主体“觊觎”的对象,而这也正是包括李彦宏在内的诸多业内人士建议健康码必须在疫情之后予以取消,而刻写其中的信息和数据须彻底予以销毁的原因[28]。

面对日益复杂的治理任务,公权力将数据的抓取、问题的界定、议程的设置、方案的设计与选择甚至政策的执行和评估等都一起打包给了算法,这使得政府公职人员更多地充当着“屏幕官僚”的角色,而真正掌握或者制定规则的很可能是算法及其背后的资本力量。但任何权力的来源和目标指向都应当具有公共性,即以公共秩序和公共资源配置的合理性和公平性加持治理逻辑,这也是技术治理下“以人为尺度”的一种体现。对此,恩格斯曾在《反杜林论》中就有所洞悉:社会伊始就存在着共同利益,维护这种利益的工作,虽然是在全社会的监督下,但不能不由个别成员来担当[29](p.190)。当算法技术掌握在少部分企业的手中时,就意味着个别的社会成员承担了基于数据活动而产生的利益分配活动,不排除数据处理者基于正当或不正当的理由借助明示目的掩藏其真实目的之可能[30]。但与此同时,正如当年“魏则西”事件反映了百度算法彻头彻尾的“唯利是图”,曾一度唤起民众对于相关算法问题的关注,并掀起针对百度和涉事监管部门的舆论攻势,遗憾的是,公共舆论力量并没有借此契机为规制算法构建一条制度化的监督路径。

(二)算法偏见内化为公共理性

算法偏见并不是一个新鲜词,人们已经观察到算法在进入世俗社会时不可避免地继承了设计者对于世界的认识,即人类社会无法根除的结构型偏见。特别是数据选取、算法模型权重设定等环节是设计者嵌入自我价值倾向的“重灾区”,因为“数据分布本身就带有一定的偏见性”[31]。在大数据的推荐算法中,人越来越依赖自己情感上有所偏好和习惯的领域,“我们只听我们选择的东西和愉悦我们的东西的通讯领域”[32](p.8)。

毫无疑问,绝大多数算法自诞生之日起就存在特定的利益倾向。而在当前弱人工智能向强人工智能进化的阶段,机器学习就类似一个生物体在进行基因重组,算法偏见决定了智能社会运行的基本规则,也即内化为社会“基因”。而内化为“基因”的算法偏见,一旦被广泛应用于公共领域,可能导致弱势群体进一步普遍沦为算法社会的“囚徒”。虽然他们的社会成员资格并没有被悬置,但算法统摄下的数据探勘技术却可能将他们阻挡在正常社会生活的边界之外,如在住房、教育、信贷、保险、就业等方面所遭遇的歧视。换言之,那些屡屡碰壁的人并非出于巧合或偶然的运气不好,而是算法这只无形的“上帝之手”在“纵横捭阖”,这将成为一个主要的政治与社会问题。而与其他诸如贫富差距、环境污染、种族歧视等问题不同,它隐秘且难以为公众所理解,更难以被抗议。2019年4月5日,美国密歇根州4万名居民对州政府提起了集体诉讼。事件的起因是密歇根州政府利用一款集成反欺诈算法的综合数据化系统“米达思”(MIDAS)对该州失业补贴申请进行审核,做出申请者是否存在欺诈的判断,并对欺诈者施以惩罚。但这个系统的出错率高达93%,致使超过4万申请人被标签化为“欺诈者”[33]。在美国人工智能的应用史上,因为不合理的算法设计给公众带来极其严重损害的情况已不是第一次了。2018年,美国纽约州被迫终止了对旨在防止家庭暴力的儿童保护预测算法的使用,该算法曾一度导致上万个家庭中父母同其子女的被迫分离,仅仅因为算法程序在数据分析后认为这些家长可能具有“严重的家暴倾向”[33]。肉眼可见的危害也许还能事后补救,更可怕的结果是,算法的偏见极有可能损害我们当前公共理性的内核,即什么样的治理原则具有“可接受性”,公民是否还能就公平正义以及在此基础上形成的公共政策问题进行自由论辩。缺少公共理性的治理,不仅在相当程度上造成了治理人员的技术依赖,那些依托个人情感和自由意志的治理经验和娴熟技能已经不再重要,理性、自由意志和个人情绪亦变得没有必要[34],而且它将不可避免地以人的“客体化”为代价,即人不再是享有自由并为生活赋予意义的主体,而沦为被支配的客体[35]。届时,公共理性和政治技艺理性将进一步滑向“工具理性铁笼”,导致治理的空心化和公信力下降。质言之,当基于理性设计的公平正义、自由平等等政治价值与社会规约被技术的标准化和程序化简单划归为数据准则下的“正常人”和“非正常人”之分时,每个人都被算法牢牢“锁定”,而“人的政治”将不再保有不证自明的价值。

(三)技术权力泛化为液态监控

与其将算法视为一项新技术,毋宁将其看作是权力的新媒介。技术权力的共性在于依托大规模的集成数字化平台,靠全覆盖的摄像头、传感器、分析中心和智能终端汇总社会个体和群体的生活形态和生活轨迹,将分散的价值与意识集中成公意,从而强制执行[36]。而最活跃且有效的机制,莫过于福柯所说的“全景敞视结构”的监控,这也是技术时代人类“异化”和“化异”的产物之一。正如德国当代技术哲学家弗里德里希·拉普(Friedrich Rapp)所言,“同从前的时代相反,现代科学技术赋予人类的力量,需要人有一定程度的自我控制。而这完全超出了人类的能力,这就是现实让人进退两难的地方”[37]。然而,福柯在写作《规训与惩罚》时,没有预料到信息技术在当代的迅猛发展,以及它为监控所带来的新变化。当以数据搜集、处理和分析为基础的算法嵌入国家权力体系中时,技术将以更隐秘和更具合法性的形式推动国家权力的多维时空渗透,形塑智能时代的“圆形监狱”。正如马尔库塞强调的,“技术成了社会控制和社会团结的新的、更有效的、更令人愉快的形式”[38](p.6)。国家治理现代化将人工智能视为重要的推动力,被纳入制度化体系的算法技术在其程序运行中内嵌了公权力的政治意识形态与价值预设,而具有意识形态化特性的算法技术一旦投入社会独立运作就会在复杂的算法推荐过程中不断影响公民的政治认知与价值取向,并迫使公民接受对算法广泛运用的社会合理性。一旦这种合理性拥有了公民的“同意”基础,算法也变成了一个具有独立性的控制体系。

这种控制不仅有着合法性基础,而且将利用算法的不透明以及流动性打造出更具柔韧度的网络,将所有人裹挟其中,并以润物细无声的方式悄然弥散开来,而在此过程中,作为算法“指涉/改造”的对象——权力,亦流变为一种全新的监控模式。在當代社会,借助科学技术手段,统治阶级的意志和命令被内化为一种社会及个人心理,技术已经成为新的控制形式[39]。而这最终将不可避免地滑向“算法利维坦”,并进一步加剧政治与道德的分离,届时,基于理性自治的官僚结构将从“人的组织”转向“算法的组织”,包括算法治理的人与治理算法的人都将不得不在算法测量、统计、计算中寻求生存。正如互联网诞生之初人们热烈地期盼进入一个全新的“乌托邦世界”,一个“利维坦”无法压迫“美丽新世界”。但正如齐格蒙特·鲍曼(Zygmunt Bauman)所指出的,“这种景象的共同体,就像是一个置身汪洋恣肆充满敌意的大海中舒适安逸的普通平静小岛”[40](p.300),互联网所营造的极有可能是反抗强权以及逃避监控的假象,聚合并不是能有效地推动政治改革的力量。亦如算法统摄的智能时代,算法构筑的液态监控覆盖了空间与时间的各个维度,无所不至。正是在这种情况下,人们丧失了对监控的敏感度。福柯曾经在《必须保卫社会》中指出:“在17和18世纪,出现了一个主要现象:出现了新的权力机制(应当说是发明),它有很特殊的程序,全新的工具,完全不同的机器……这种新的权力机器首先作用于人的肉体及其行动,超过其作用于土地及其产品。这种权力机制更是源自肉体、时间和工作而不是财物。”[41](p.33)有学者曾以可穿戴设备为例,思考数字社会如何在促进跑者自我赋权的同时引发了一场自我量化的数字劳动,而在这个过程中,具有“后全景敞视结构”特征的液态监控则一直嵌入其中,进而形成被强制的自我追踪[42],这在一定程度上也是人屈从于机器的一种表现。福柯曾经生动而准确地指出,“可见性就是捕捉器”,当“规训机制逐渐扩展,遍布了整个社会机体时”,肉体就无处遁形了。福柯认为以“规训社会”命名仍属“姑且名之”,但实际上是恰切之极。事实上,类似于吉尔·德勒兹(Gilles Deleuze)提出的个体被信息技术消解而产生的“分格”,而基于算法的“分格”使得德勒兹口中的“管控社会”成为“液态社会”,但不同于鲍曼口中“流沙”般的现代社会,算法权力将个人“归置”于由代码组成的数字世界中——“它们不仅决定了人们能否获得信息,并且使人置身于一种无处不在的、持续运转的网络之中,形同巨大的筛子上排列得错落有致的筛孔”[43]。

(四)拟态真实取代治理情境

人工智能技术的崛起,在媒介信息传播领域掀起了革命性浪潮,最显著的作用是使内容的自动生产成为可能。各类“新闻写作机器人”已在国内外相继投入使用,如我国新华社的“快笔小新”,《南方都市报》的“小南”和美联社的“小美”等[44]。机器人写作、人机对话、算法分发等媒介制作和信息传播方式的出现,不仅极大地消除了信息传输过程中人为主观因素造成的认知偏差,更为重要的是,依靠算法推荐机制形成的那些更为清晰甚至带有预测功能的信息环境,成了在这个高度不确定性社会中人们的理想“伊甸园”。与此同时,一个看似“超真实”的全面拟真信息时代正在成为现实。这种“拟态真实”不仅成为受众的日常生活情境,而且也日益取代传统的治理情境。最典型莫过于近年来,随着人工智能技术的突飞猛进,在司法领域,曾有人一度将人工智能视为“法律自动售货机”,并将其视为未来的司法功能形态,虽然这一观点已经被业界人士和专家学者们所批判,但向智能算法投喂大量数据以促使其“学习”和“进化”,找到隐藏的规律和范式进而自动执行决策和操作已经成为人工智能进阶的必经之路。但这条进化路径却在不断深化型构一个巨大的“陷阱”,那些看似更为精确的治理情境和治理数据,事实上以一种高度拟真的景观想象,消弭了人类主观认识与客观环境的边界,并在社会不同阶层的受众之间持续强化认知鸿沟。未来的信息推荐算法或许不会总是将人们封闭在个人的小天地里,甚至可以期待它们会在促进公共传播方面有所作为,但即使如此,被算法无时无刻“投喂”的人们,最终极有可能成为愚笨的信息“填鸭”。而算法构建的拟态环境,类似由智能算法推荐的新闻、广告等,不仅仅是试图以信息“感染”个体,进而“操纵”个体的行为,更重要的是,它通过对大数据库的实时分析,构建起跨语言、深层次、全局性地认识事物、表征和预测现实的模型,突破了以往人们“脑海真实”的片面性和局部性,从而仿真出无限逼近于客观真实的“符号真实”[45]。在公共管理领域,这种“符号真实”在很大程度上会成为治理者的决策依据,但也使得治理主体戴上了“有色眼镜”从而忽视治理情境中的许多“边缘情况”。而当公众对于真实的理解长期处于这种算法的计算之下,就会形成一种斯蒂芬·科尔伯特所说的“真实效应的幻觉”[46]。

长期脱离真实社会生活的社会和政治实践,不仅会阻碍人格的正常形成,削弱人们参与政治的能力,也将进一步加剧人们识别自身的真正困境。如在扶贫领域,人工智能算法的应用的确能够助力精准扶贫,大幅降低当前贫困认定的遗漏率和错配率,但也可能导致特定贫困群体被算法故意“剔除”,而很多现实情境下的贫困认定工作,需要基层扶贫干部实现“强约束下的变通”[47]。事实上,基层治理中的大量实践需要依赖所谓的“模糊性治理”(Ambiguous Governing),即指当政府面对困境性的(如政策方案不成熟)、可争议性的政策议题,或者面临应对价值或伦理上的两难情形时,在治理机制、政策工具或行动策略上表现出来具有“诠释灵活性”“模棱两可”等特性的公共管理模式[48],这些都必须根植于现实的治理情境。而算法在公共管理领域的介入,以“拟态真实”取代真实的治理情境,也消除了困境性议题中模糊策略的施展空间,这也意味着在某种程度上权力“以退为进”之路被阻断。

五、回归正题:治理算法化的界定、

评价与启示

聚焦当下,由大量数据驱动的算法已经成为一种全新的权力媒介,或对人们的行为和表现进行预测,或对各种资源和福利分配进行排序。与其说治理算法化是一个新的概念,倒不如说它更像是一个不断逼近的社会事实。诸如Facebook、微软、百度、新浪、阿里巴巴等技术公司和相关组织通过算法权力分割政府的管理权限已经成为不争的事实,而积累了强大技术行政能力的行动者将进一步形塑治理算法化。正如尤瓦尔·赫拉利(Yuval Noah Harari)所预测的,算法会成为经济链的顶端,而不仅仅是效益决策的最大助推力。这些决策与各种平台应用有机结合,不断颠覆并带领人们快速迈向算法社会,构成治理算法化的现实样态。面对新的社会样态,既需要对具体研发、使用情景中的新一代人工智能技术及其嵌入公共领域的方式进行预制、校准以及伦理反思,亦需要遵循苏格拉底“认识你自己”的古老教诲,对人的自身价值进行追问,并重塑智能社会下人的自我生活策略。无论是治理抑或算法,其越“先进”,就越会远离人之初的“本自然”。因此,人必须成为算法的控制者,“一切划时代的体系的真正的内容都是由于产生这些体系的那个时期的需要而形成起来的”[49](p.554)。治理算法化并非是简单的人工智能嵌入治理领域之后的产物,而是实践先于理论而存在,亦是这个时代的社会需求。我们无疑已经进入了对算法需求的“寒武纪大爆发”时代,现如今对算法和人工智能的理解,亦如18世纪的科学家亚历山大·冯·洪堡(Alexander von Humboldt)第一次以“生命之网”的整体视角重塑人类对大自然的认识,需要經历一个“洪堡时刻”,其核心就是在智能系统中嵌入符合人类价值的基模,构筑算法的底层运行规则[50]。而这个规则须臾不可偏离的基点即所有的技术发展本质上都是为了实现人的发展,人是起点亦是终点。

当然,任何一项技术的发展在带来福音的同时都存在进一步撕裂当下社会的风险,我们除了审慎和理性地分析算法危机的根源和特征之外,更应当以包容客观的心态给予算法技术足够的创新空间,并有针对性地总结算法治理以及治理算法的经验,这样做的目的不仅在于缓解算法焦虑,与“算法共存”,而且旨在于治理算法化的体系中进一步促进技术与人的和谐关系。当然,算法技术本身的优化和完善十分重要,但更需要在凝聚社会共识以及型构异议空间的基础上建立有效应对“道”与“术”异步困境的治理机制,防范人工智能的技术性风险。这不仅涉及强化法律规制的传统制度改造,更要求建立以全面理性为基础、以社会监管为重要内容的政策体系,甄别与抵制算法对“人的政治”的侵蚀。诚然,算法时代的“洪堡时刻”并没有捷径可走,或许只能通过诸如对“自动驾驶在面对‘电车难题’时做出的选择是否比人类更合乎道德”“智能司法系统会不会比法官裁判更公正”等悖论的思辨与探讨,才能从每一个具体的治理算法化情境中,不断深化对人工智能治理属性的再思考。

注释:

①参见JeanLuc Chabert:“A History of Algorithm:From the Pebble to the Microchip”,Springer,1999.

②有学者指出,在商业逻辑的支配下,算法公司可能通过程序设定将算法植入公共部门,并将算法优势嵌入公共部门的投入、过程与产出等环节,以期获得更多的财政资金制造机会,进而充当算法影子官僚,不断扩大算法权力在公共领域的影响。参见郑崇明:《警惕公共治理中算法影子官僚的风险》,《探索与争鸣》2021年第1期。

参考文献:

[1][英]威廉·配第.政治算术[M].陈冬野.北京:商务印书馆,2014.

[2][法]米歇尔·福柯.规训与惩罚[M].刘北成,杨远婴.北京:生活·读书·新知三联书店,2012.

[3][加拿大]马歇尔·麦克卢汉.理解媒介:论人的延伸[M].何道宽.南京:译林出版社,2019.

[4]张昱辰.走向后人文主义的媒介技术论——弗里德里希·基特勒媒介思想解读[J].现代传播,2014,(9).

[5][意]吉奥乔·阿甘本.论友爱[M].刘耀辉,尉光吉.北京:北京大学出版社,2017.

[6]郑戈.算法的法律与法律的算法[J].中国法律评论,2018,(2).

[7]徐子沛.数据之巅[M].北京:中信出版社,2018.

[8]贾开,蒋余浩.人工智能治理的三个基本问题——技术逻辑、风险挑战与公共政策选择[J].中国行政管理,2017,(10).

[9][德]盖奥尔格·西美尔.社会学:关于社会化形式的研究[M].林荣远.北京:华夏出版社,2002.

[10][德]尤尔根·哈贝马斯.作为“意识形态”的技术与科学[M].李黎,郭官义.北京:学林出版社,1999.

[11]吴冠军.信任的“狡计”——信任缺失时代重思信任[J].探索与争鸣,2019,(12).

[12][美]尼葛洛庞帝.数字化生存[M].胡泳,等.海口:海南出版社,1997.

[13]夏逸舟.西蒙栋技术哲学浅析——从“个体化”概念入手[D].南京:南京大学学位论文,2017.

[14]吴冠军.竞速统治与后民主政治——人工智能时代的政治哲学反思[J].当代世界与社会主义,2019,(6).

[15][美]劳伦斯·莱斯格.代码2.0:网络空间中的法律[M].李旭,沈伟伟.北京:清华大学出版社,2009.

[16]李惠斌,杨冬雪.社会资本与社会发展[M].北京:社会科学文献出版社,2000.

[17][美]托马斯·R·戴伊.理解公共政策(第十二版)[M].谢明.北京:中国人民大学出版社,2011.

[18]高奇琦.智能革命与国家治理现代化初探[J].中国社会科学,2020,(7).

[19]张志安,刘杰.人工智能与新闻业:技术驱动与价值反思[J].新闻与写作,2017,(11).

[20][法]爱弥尔·涂尔干.宗教生活的基本形式[M].渠敬东,汲喆.北京:商务印书馆,2011.

[21]胡安宁. 人心可以计算吗?——人工智能与社会科学研究之关系[J].南国学术,2017,(4).

[22][美]高德纳.计算机程序设计艺术卷1:基本算法[M].李伯明,等.北京:人民邮电出版社,2016.

[23]刘宇擎,张玉槐,段沛奇,等.针对强人工智能安全风险的技术应对策略[J].中国工程科学,2021,(3).

[24]张欣.从算法危机到算法信任:算法治理的多元方案和本土化路径[J].华东政法大学学报,2019,(6).

[25]郑智航.人工智能算法的伦理危机与法律规制[J].法律科学(西北政法大学学报),2021,(1).

[26]任剑涛.人工智能与“人的政治”重生[J].探索,2020,(5).

[27]方兴东,严峰.“健康码”背后的数字社会治理挑战研究[J].人民论坛·学术前沿,2020,(16).

[28]姚佳莹.健康码能否升级“全能码”?[J].晚晴,2020,(7).

[29]恩格斯.反杜林论[M].中共中央马克思恩格斯列宁斯大林著作编译局.北京:人民出版社,2018.

[30]蒋红珍.目的正当性审查在比例原则中的定位[J].浙江工商大学学报,2019,(2).

[31]汝绪华.算法政治:风险、发生逻辑与治理[J].厦门大学学报,2018,(6).

[32][美]凯斯·R.桑斯坦.信息乌托邦:众人如何生产知识[M].毕竞悦.北京:法律出版社,2008.

[33]唐林垚.算法应用的公共妨害及其治理路径[J].北方法学,2020,(3).

[34]朱婉菁.算法维度下人工智能嵌入治理的风险研判及政策因应[J].天津行政学院学报,2020,(6).

[35]孙国东.“算法理性”的政治哲学检视[J].厦门大学学报,2021,(2).

[36]张爱军,李圆.人工智能时代的算法权力:逻辑、风险及规制[J].河海大学学报,2019,(6).

[37]汪行福.“复杂现代性”论纲[J].天津社会科学,2018,(1).

[38][美]赫伯特·马尔库塞.单向度的人[M].刘继.上海:上海译文出版社,2008.

[39]陈振明.走向一种科学技术政治学理论——评“西方马克思主义”关于科学技术政治效应的观点[J].自然辨证法通讯,1997,(2).

[40][英]齐格蒙特·鲍曼.流动的現代性[M].欧阳景根.北京:中国人民大学出版社,2018.

[41][法]米歇尔·福柯.必须保卫社会[M].钱翰.上海:上海人民出版社,1999.

[42]王健.自我、权力与规训:可穿戴设备的社会学解析——以青年跑者为例[J].中国青年研究,2019,(12).

[43]段伟文.面向人工智能时代的伦理策略[J].当代美国评论,2019,(1).

[44]罗欢.智媒时代媒体的智能化发展与转型研究[J].新闻爱好者,2019,(1).

[45]喻国明,韩婷.算法型信息分发:技术原理、机制创新与未来发展[J].新闻爱好者,2018,(4).

[46]汝绪华.假新闻泛滥与西方民主的整体性危机[J].马克思主义研究,2019,(5).

[47]刘建.标准化、自由裁量权与街头博弈:贫困治理情境转换的路径及逻辑[J].甘肃行政学院学报,2019,(4).

[48]孙志建.“模糊性治理”的理论系谱及其诠释:一种崭新的公共管理叙事[J].甘肃行政学院学报,2012,(3).

[49]马克思恩格斯选集(第3卷)[M].北京:人民出版社,1995.

[50]喻国明,耿晓梦.智能算法推荐:工具理性与价值适切——从技术逻辑的人文反思到价值适切的优化之道[J].全球传媒学刊,2018,(4).

[责任编辑:张英秀]

Abstract:
The transformation of artificial intelligence in the field of governance requires theoretical reconstruction and innovation. Putting artificial intelligence in the secondorder structure of internal “theoretical proof” and external “risk identification” of governance, proposing and demonstrating the analytical framework of governance algorithmization is a useful way to explore governance reform in the era of artificial intelligence. The prerequisite for the establishment of governance algorithmization is not only the efforts of the “calculable” module, but also the need to reshape the boundary of governance. It originates from both the need to strengthen governance trust and the need to construct collective action in the individualized era, and should always adhere to the application logic of human scale. Governance algorithmization has the asynchronous dilemma of “Tao” and “art”, that is, there are risks such as business logic taking precedence over governance logic, algorithm bias internalizing into public rationality, technology power generalization into liquid monitoring, and pseudo reality replacing governance situation. Therefore, the algorithmization of governance still needs to further promote the harmonious relationship between technology and people.

Key words:
artificial intelligence, the algorithm of governance, big data, algorithm bias, machine learning

猜你喜欢机器学习人工智能大数据大数据背景下如何加强企业的财务管理财会学习(2020年12期)2020-05-03推进产业工会财务共享的思考和建议理财·财经版(2019年12期)2019-10-21大数据思维与医院公文档案信息化建设路径卷宗(2019年5期)2019-03-18人工智能与就业IT经理世界(2018年20期)2018-10-24浅谈数学和计算机的关系科技传播(2018年3期)2018-02-09机器学习在大视频运维中的应用中兴通讯技术(2017年4期)2017-09-07数读人工智能小康(2017年16期)2017-06-07机器学习技术在民航安全管理中的应用探析科技创新与应用(2017年12期)2017-05-08基于LDA模型的文本分类与观点挖掘电子技术与软件工程(2017年4期)2017-03-27下一幕,人工智能!南风窗(2016年19期)2016-09-21 相关热词搜索: 治理 人工智能 算法