从核治理的历史经验看人工智能的全球治理

【学术成果】时间:2025-09-05      来源:信息技术与管理应用      

摘要

人工智能的全球治理要在跨国维度上规制人工智能带来的冲突、维持国际秩序。近年来欧美学术界、政策界与传媒界频繁将人工智能与核武器进行对比,反映出对人工智能社会影响的担忧。回顾核治理的历史发现,其制度化的规范体系产生于大国权力均势、对话机制与学习机制。以此关照当下,人工智能全球治理的权力均势、对话机制滞后与学习过程仍在进行,故而制度化程度较低。这使得短时间内人工智能的全球治理将进入风险主导的阶段,但并不能否定长时间内的谨慎乐观。

关键词:核治理;人工智能;全球治理


一、引言

全球治理意味着在跨国维度形成国际规则、维持国际秩序[1]。全球治理与国家治理是治理的不同维度,与在特定国家内部对人工智能进行治理从而促进经济发展、保护个人权利与维护公共秩序的过程相比,全球治理是在国际上对人工智能带来的冲突进行规制,从而控制人工智能推动的转型过程、防止失序。人工智能全球治理正随着人工智能技术与应用的扩散而变得愈发迫切,但在技术在快速进步而治理格局尚未稳固的情况下,这一治理还处在初级阶段。在这种情况下,学术界和政策界可以通过历史经验认识人类的行为模式,了解面对新技术时的博弈冲突与制度调适。从这个角度去思考不难发现,在并不久远的过去,核技术深刻改变人类社会,核技术的发展与核治理的过程为当下的人工智能全球治理提供了重要参考。

二、文献综述

(一)人工智能与核的比较近年来,欧美学术界、政策界和传媒界就人工智能与核的比较、联系进行了大量探讨。比尔•盖茨表示,人工智能就像核一样“充满希望又危险无比”[2],马斯克则认为人工智能比核更加危险[3]。《纽约时报》刊文指出,众多专业人士在使用这样的比喻:“人工智能就像核武器一样”,这充分表明了潜在风险,为此要从对原子弹的规制中吸取经验,来以类似的态度对待人工智能[4]。在2023年的一次问卷调查中,有36%的人工智能专家担忧人工智能会带来“核武器级别的灾难”(nuclear-level catastrophe)[5]。哈佛大学肯尼迪学院发布的《人工智能与国家安全》报告也指出,认为未来人工智能有可能成为与核武器并列的革命性国家安全技术[6]。学术界在探讨人工智能与核的关系时有三个分支,其一探讨核技术与人工智能技术的交叉,比如在核电站的管理中使用人工智能。中国核电工程有限公司与清华大学的学者认为,下一代核电站需要引入人工智能来进行整体设计,而不仅仅是在特定环境中使用这一技术[7]。国际原子能机构认为生成式人工智能可以提升核电站的透明度,在监测金属罐泄露、实时维护等方面,可以提升准确度、减少开支[8]。此外,也有学者探讨核医学中的人工智能应用[9]。总体来说,通过人工智能来推动核能技术创新,这属于和平利用核能的延续。第二类文献关注核武器开发、管理与决策中的人工智能。美国兰德公司报告指出,在应用于核战争时,人工智能可以发挥两种作用:侦查、追踪与定位,以及决策咨询[10]。在核武器决策中使用机器来替代人类意味着巨大的风险,目前的国际法对此并无明确规制[11]。在核武器决策的不同维度,如核指挥与控制、核运载平台和运载工具、核相关常规武器层面上,人工智能的应用是不均衡的,当国家感觉自身的二次核打击能力不足时,更有可能使用人工智能[12]。不过,有相反的观点认为,人工智能可以增强核稳定性,“人工智能式核冬天”(AI nuclear winter)的可能性较小[13]。总体来看,这类文献将人工智能的技术特征与核武器联系起来,指出这是一种令人担忧的趋势。最后一类文献则在全球治理维度上比较核治理与人工智能治理。已经有文献注意到核治理与人工智能治理的诸多相似之处,两者都与国家安全高度相关[14],人工智能尚未充分兑现出自身的技术潜力,不过仅就已经显露出的技术特点而言,在人工智能与核之间都存在武器化的必然、进攻先于防守、新技术的级联效应(cascading effects)等特点[15]。人工智能的早期开发是由民用部门完成的,但从冶铁、蒸汽机到互联网,人类经历过诸多技术革命中的每次革命都会被用于军事用途。武器化是人工智能的趋势之一,这使其与核武器的作用愈发接近。从狭义上讲,人工智能的武器化意味着开发使用人工智能技术的军事装备,比如无人作战系统、战场情报搜集、认知域作战等[16],在近年来的军事冲突中,这种应用并不少见。从广义上将,人工智能的武器化意味着在一般性国际冲突中针对敌对国家使用人工智能,这也是全球治理尤其需要关注的领域。和核武器一样,人工智能有可能根本性改变国家间的实力对比,影响既有攻防态势,因而进入国家安全的讨论中。已有文献发现,全球治理核治理为人工智能的全球治理提供了以下经验:规范制度化可以对抗或减缓扩散;有组织的学者“认识共同体”可以有效地促进军备控制;人工智能的武器化应用容易受到“正常事故”的影响,因此“我们一定会好好控制它”的承诺远远不够[17]。(二)人工智能全球治理将人工智能治理与核治理进行对比的文献,是人工智能全球治理研究中的重要分支。在人工智能全球治理的现有文献大致可以区分为伦理讨论与治理实践两个分支,其中对伦理的关注主要进行逻辑推导,希望结合人工智能的技术特点设计出理想的治理架构,从而在社会变迁中追求稳定的政治价值。比如有观点认为以民主和公平作为治理的衡量指标的话,人工智能治理不但需要关注技术与个人的关系,还要关注技术所带来的利益重新分配[18]。为了应对全球治理中的霸权逻辑和冲突逻辑,要形成全球性共识,以“全球善智”和“全球合智”来提供价值导向,从而应对人工智能的挑战[19]。此外,对治理实践的关注则重在政府、企业、公众与学界之间的互动,全球治理不同于国别治理,是以维持国际秩序为主要目标,需要一定的公共性作为支撑。人工智能的算法歧视、伦理问题、就业问题、数据安全等议题具有显著的公共性,适用于多方治理,而全球经济、安全、政治相关的议题更适合多边治理[20]。在实践中,人工智能有潜力改变当下的国家与社会关系,在抗争运动、社会监控、舆论、社会不平等等诸多领域影响国家的制度设计,改变政府的透明度与责任性,乃至带来新的治理模式乃至国家形态[21]。毕竟,在火药与枪炮的技术革新中出现了作为现代国家形态的民族国家(nation state),在互联网与人工智能的技术革新中出现新的国家形态并非难以想象。在这种情况下,人工智能有可能从根本上改变国家间力量对比,正推动国际关系中的权力分布极端化[22],这无疑是对既有国际秩序的重大挑战。就社会科学的经验性而言,对人工智能全球治理进行研究的难题在于技术与治理仍在快速变迁过程中,任何推理、总结和预测都可能被现实所证伪。这就如同在互联网发展的早期,关于赋权与自由的讨论盛极一时,但互联网却走向了大型商业公司垄断。约瑟夫•奈引用马克•吐温的名言“历史不会重演,但总是惊人的相似”[23]指出,通过核治理的历史经验来为当下提供知识,可以获得经验材料与逻辑认识的良好结合。为此,本文将在宏观维度上比较核治理与人工智能治理,以下将首先总结核治理架构的特征与形成机制,在此基础上分析当下人工智能全球治理的特征,并探讨未来可能的发展方向。

二、核治理的过程、机制与当代启示

(一)核治理的历史过程核技术起步源于二十世纪初期的物理学创新,早期应用场景是第二次世界大战,在强烈的军事诉求下,核武器以广岛、长崎的两次原子弹爆炸向世界展示了自己的威力。在二战后的数年里,美国是唯一拥有核武器的国家,通过核垄断在国际斗争中占据优势。核治理是应对核武器的扩散而出现的,随着苏联、英国等国家拥有核武器,核武器的全球治理需要浮现出来。六十年代初期,美苏签署了《禁止在大气层、外层空间和水下进行核武器试验条约》《防止核武器扩散条约》等条约,开始限制核实验。七十年代以后,美苏双方在确保相互摧毁的基础上,减少核竞争对于资源的消耗,开始限制相互之间的核武库、实质性削减核武器,而且涉及到载具等各个领域。在冷战后日益全球化的历史阶段,核武器的战略地位有所降低,核裁军与新一代核武器研发并行。但近年来随着国际冲突的加剧,某些国家在陷入地缘政治困境时,试图重新发掘核力量的威慑价值。在冷战期间,美国和苏联在全球争霸中均大力发展核武器及载具,而法国、英国、中国等国家也发展了自己的核武器,吊诡的是,在剧烈的意识形态冲突与地缘政治冲突中,反而发展出来《不扩散核武器条约》、国际原子能组织、《中导条约》、核裁军运动等治理机制和组织,核武器的开发、试验与载具均受到限制,核扩散也得到一定制约。目前除五个联合国安理会常任理事国外,只有数个国家成为事实上的有核国家,在二战后的国际冲突中,核武器再也没有被投入实战,也没有脏弹的使用,这是全球范围内核治理的成果。核治理使得人类并没有真正相互毁灭(这在技术上是完全可能的),而是走向了“痛并快乐着”。核武器有巨大的破坏力,这不但体现在国际斗争中的相互伤害,也体现在对于人类乃至地球生态系统的伤害,发展核武器同时造成了巨大的资源消耗,这是“痛”的一面。但在接近一个世纪的时间里,地球上没有出现世界性战争,统计显示冷战的数十年里,世界范围内因为战争死亡的人数只有二战的一半[[]]。核能的和平利用也为人类创造福祉,在能源供应、医学健康等方面改善了人类生活,核电站为诸多国家提供了重要的能源供应(当然,几次事故也造成了一定程度的人员伤亡与公众恐慌),这是“快乐”的一面。核治理机制已经成为当下国际秩序的一部分,被“制度化”了。国际秩序包括两个基本构成:主要国家和国家集团的权力结构和实力对比、处理国家间关系应遵循的规范[25]。核治理的国际秩序中,就前者而言,五个联合国安理会常任理事国作为合法拥核国家,通过核武器反映且维护了其国际权力优势,而且在苏联解体后加盟共和国的核危机、伊朗核危机等处理上较为成功地进行了合作,体现出全球治理的韧性。就后者而言,核治理已经形成相对较为一致的规范,在价值层面上“核战争等于非法”的理念被广泛接受,在约束机制上有《全面禁止核试验条约》、联合国核裁军谈判机制、全球核安全峰会等一系列机制,在发展上有无核国家和平利用核能的技术扩散[26]。可以说,核治理已经达到较高的制度化水平。从历史经验来看,核治理也许并非最佳的治理结果,但也确实避免了最坏的结果,而在人工智能将深刻影响人类社会的当下,避免最坏结果的底线思维无疑是思考政策的重要切入点。(二)核治理的形成机制那么,核治理的国际秩序是如何形成的呢?现有文献中提出多种观点,本文整理为权力均势、对话机制和学习机制三个维度。首先,核治理反映出世界主要大国之间的权力均势。核治理的基础是核威慑,即通过核实力使对方惧怕,从而改变在国际斗争中的行动与立场,每次核治理的目标、结构变化都源于实力对比的变化。在短暂的核垄断时期,美国拒绝任何对自身优势的限制,治理是不可能的。当主要国家在六十年代后各自拥有核武器后,核治理的主要目标是有核国家尤其是美国和苏联限制其他国家发展核武器。联合国1968年通过的《不扩散核武器条约》将美、苏(后为苏联的国际法继承者俄罗斯)、英、法、中确立为有核国家,全球治理体现为霸权国家相对其他国家维系自身的主导地位,尤其是美国、苏联相对其他国家的地位。在这之后,随着“确保相互摧毁”被反复确认,核治理的目标进一步转向了减少资源消耗,从而提供了实质性削减核武器的可能,并为和平利用核能提供了动力。有核国家之间的权力均势和有核国家相对无核国家的权力优势驱动了核治理,尤其是维系了核不扩散机制,这在冷战后得以延续,如《不扩散核武器条约》被无限期延长,《全面禁止核试验条约》生效,联合国裁军会议持续关注核裁军。其次,核治理中贯穿着对话机制,在对话中核武器被嵌入国际体系,成为了制度化的斗争工具。二战后美苏在联合国裁军委员会为主要舞台进行斗争,到六十年代,美苏双方签署了五项双边条约和多项多边条约,建立了直接联系,避免紧急状态下的战略误判。也是在这一阶段,关于核议题的对话进一步扩展到有核和无核国家,使得核治理真正成为全球治理。到七十年代以后,对话进一步深入,美苏核议题上的双边条约数量进一步增长。冷战结束后,对话的多边色彩加强,但实质性政策价值有所下降。新技术的制度化程度决定了其对既有国际体系的冲击,核治理通过不断的对话将核武器制度化,即使是在东西方阵营对立的冷战阶段,关于核议题的对话也没有停止,核威慑从具体的武力威胁转变为基于实力存量的“秀肌肉”行为,避免了斗争的失控。核治理过程中持续数十年的外交对话表明,权力均势并不自动转化为国际秩序,在现实主义国际关系之外,也需要某种程度上的建构主义,从价值塑造与话语交流的角度来认识国际秩序的形成。最后,核治理反映出全球治理的学习机制。人类从来没有面对过像核武器这样能够 “确保相互摧毁”乃至毁灭地球的武器,而且从原子弹、氢弹、中子弹到电磁脉冲弹,核武器不断更新,对国际权力格局的影响也在变化。在面对这些技术创新,世界各国的政策并非一成不变,而是学习如何进行可控的竞争。美国的核战略在不同时期有着大规模报复、灵活反应等战略调整,苏联也有大规模报复、核战致胜等战略调整,英国则有最低限度核威慑、同盟依赖等战略调整。这种学习机制使得参与全球治理的国家和组织理解核武器的威力、伦理与使用策略,推动了前述均势与对话的形成。在核的全球治理中,政策学习有两个特征:不均衡性与联动性。在约瑟夫•奈看来,美国和苏联在核武器破坏力、核武库控制、核扩散、军备竞赛稳定性以及威慑力量结构等不同子领域上有着不同的学习速率[[]],这塑造了国际安全体制。从联动性上来说,政策学习绝非仅仅单纯取决于国际局势,国内政治与国际政治是联动的,某些国家通过学习进行政策调整的灵活性和韧性相较于其他国家更高。总之,核是一种拥有者巨大杀伤力的技术,对于核武器与核战争的恐惧成为冷战中全人类的历史记忆。在对核的全球治理中出现两个维度,一个维度是权力维度,核治理是国际权力斗争的手段,反映和维护了既有权力格局。另一维度是发展维度,主要通过核能的和平利用来为人类创造福祉。通过权力均势、对话机制和学习机制,核武器被嵌入到国际体系中,核不扩散的目标在很大程度上被达到,破坏性国际冲突被约束而和平利用核能则有了长足发展,这一历史经验使得对全球治理的信心,也为人工智能的全球治理提供了镜鉴。

三、制度化不足:人工智能国际治理的当下特征

从核治理的历史经验来看,人工智能的全球治理仍处在急剧变迁的过程中,基本特征是制度化不足,这具体体现为权力均势尚未形成、对话机制没有成型、学习过程仍在继续三个层面。(一)权力均势尚未形成从核治理中可以看出,权力均势是有效治理的前提,在个别霸权掌握绝对优势的情况下,治理是不可能的。而人工智能的技术进步尚不稳定,目前没有形成冷战时期核武器确保相互摧毁那样的权力均势,缺乏均势意味着冲突的剧烈,各国有强烈动力寻求优势地位,推动了人工智能在各个国家的快速扩散。Horowitz指出,技术在实质性影响权力格局的过程中,要经过财政与组织能力的中介,而行动者的决策比技术特征更加重要。在分析人工智能对全球权力均势的影响时,要回答以下问题:技术如何影响战争形态?各种行动者会如何使用这些技术?新技术会如何扩散?答案只能在具体的对抗过程后获得,而很难进行预测。比如机枪是进攻性武器,但在第一次世界大战中却推动了堑壕战这样的防守样态[28],这种复杂性因为人工智能的技术特征而愈发增添了在权力博弈中的不确定性。若用Horowitz的框架来分析的话,在技术如何影响战争上,仅仅是通过人工智能进行武器装备的升级,还不足以让人工智能与核武器并列,是人工智能广义的武器化,让其可能拥有核武器一样的战略威慑价值。核武器对于人类社会的冲击在于其“确保相互摧毁”,从而把第一次世界大战所开始的“全面战争”进一步深化,形成针对整个国家而不是特定军事人员的威胁。核武器和人工智能都是进攻优先于防守,核武器拥有着近乎无法防御的破坏力,而人工智能建基于以开放式平台为基本结构的互联网,在全面数据化、网络化的当下,已经成为社会的基础设施。对此进行攻击可以摧毁敌对国家的整个社会秩序,从而形成战略威慑,随着网络安全成为国家安全的重要组成,这种攻防态势对权力格局的影响还未充分显现。在行动者的使用上,人工智能主要由作为民营部门的互联网公司开发,在实力塑造与实力转化上有高度的不确定性。在核武器与核能和平利用中,国家和国家间组织是主要行动者,遵循简单的线性逻辑:国家投资,国家控制、国家使用。但在人工智能开发中,民间(主要是互联网公司)投资、民间控制、民间使用。如果人工智能被视为关键的军事(或经济)资产,那么国家在什么情况下可以对其进行控制、关闭或安全化处理?若是改变民间投资为主的局面,能实现有效的技术创新吗?在全球范围内拥有商业利益的大型互联网公司,如何与特定国家的政府进行合作?即使是在美国,对这些问题的认识还在政治博弈中,这使得人工智能在国家安全中的应用存在诸多疑问。在新技术的扩散上,人工智能与核武器尤其存在着较大不同。核武器被掌握在少数国家的政府手中,开发需要海量资源,技术严格保密,核扩散难度大。对比而言,虽然人工智能则正在逐步经历武器化过程,也存在着美国通过限制人工智能芯片出口来维系优势地位等强权政策,但互联网公司与科技领域的作用更为凸显,军民之间、国家之间的技术流动相对较为频繁。目前这一领域的基本特征是美国相对西方国家、发达国家相对发展中国家的技术优势,但未来大国与大国之间将呈现出何种实力对比?大国相对小国将维系还是丧失规模优势?这些问题随着通用人工智能等技术革新而愈发难以回答。(二)对话机制没有成型就人工智能的全球治理而言,大国间冲突高于对话、多边平台建设滞后,以及政企关系博弈,因而对话机制远未成型。首先,大国间关于人工智能的冲突高于对话,中国与美国在芯片及相关设备上存在贸易冲突,而俄罗斯与美国、欧洲更是在乌克兰战场上大范围使用人工智能技术进行军事战斗。在冷战期间,关于核武器的双边对话主要由美国和苏联完成,并因为北约与华约的影响而放大,这使得双边对话的影响被放大到全球规模。在目前“百年未有之大变局”中,对话尤其是关于人工智能武器化的对话尚未制度化,各国还处在实力塑造阶段。其次,多边平台建设滞后。对边平台并非办几次国际会议或多边会谈,其制度化程度更取决于国际组织的建设,比如在经济领域的世界贸易组织,能够推动争端解决、回应投诉、澄清法律概念或树立案例,甚至拥有一定程度上的强制执行能力。目前关于人工智能的多边平台除《特定常规武器公约》机制外,还包括联合国人权理事会、联合国大会第一委员会(即裁军与国际安全委员会)、联合国安全理事会等。这些平台重在关注狭义上的人工智能武器化,尤其是所谓“自主武器”(autonomous weapon),这无疑存在着相当大的局限。与核治理有所不同的是,人工智能全球治理的对话还要纳入非国家行动者,从国际关系转向政企关系。从地缘格局来看,美国政府要处理的是与本国互联网公司的关系,近年来通过频繁的国会听证会、国会立法、行政命令等方式与谷歌、脸书等进行对话,划定政策边界,并试图将民用部门的技术进步整合进军工复合体中。欧洲政府则要处理与非本土的跨国互联网公司之间的关系,近年来通过立法、反垄断等手段进行对话,并培植本土人工智能的研发能力。类似情况在其他国家也同样存在,如东南亚和南亚一些国家的政府与跨国互联网公司之间的博弈。当下国际体系有着朝向冲突与分裂的趋势,但从核治理的经验来看,竞争乃至斗争从来与对话是并存的,从只有主动地、自觉地参与人工智能全球治理的对话,才可以更好地维护国家利益。当前对话机制的滞后,反应出主要国家通过对话达成共识的意愿不足,同时也说明目前这一领域的国际规范不够,而这导向了对于政策学习的分析。(三)学习机制仍在进行人类既要学习人工智能的技术创新,同时在治理层面上也要学习如何将其制度化。规范的形成取决于相关行动者接受共同的边界,即在国际冲突中何种行为是不正当的,应该予以何种处罚。规范的树立是制度的前提,而一旦制度化了,人类面对这一技术创新的吸纳过程也就完成了。从核治理的历史经验来看,这种政策学习推动形成了由价值和国际法所构成的国际规范体系。在价值伦理层面,目前国际社会通过延伸既有治理体系来学习如何治理人工智能,比如欧盟在对电视、视听媒体的规制过程中发展出一系列价值,这些价值延伸到了《通用数据保护条例》和《人工智能伦理指导方针》上。在《人工智能伦理指导方针》中规定了七项关键要求,即人类代理和监督、技术稳健性和安全性、隐私和数据管理、透明度、多样性、环境和社会福祉以及问责制[29],其中至少有五项可以追溯到欧盟在二十世纪九十年代针对电视行业出台的法律。政策学习仍在推动中的一个特征是不均衡性。目前人工智能的价值规范重在约束技术以及开发技术的互联网公司,而轻于约束各国政府。前者以阿西莫夫机器人三原则为代表,已经在相当广泛的程度内得到接受,而就后者而言,目前尚没有被普遍接受的价值。以近年来颇受关注阿西洛马人工智能原则为例,这项签署于2017年并在学术界、政策界引起普遍关注的原则共有23条原则,关注了科研、伦理价值与各类长期问题,尽管第18条提出了“应该避免一个使用致命性自主武器的军备竞赛”[30],但这只被列为研究问题的最后一项。从核治理经验来看,只有相关国家能够就特定价值形成共识(比如核战争等于非法),才有可能真正降低人工智能对于国际秩序的伤害。具有强制约束力量的规范是国际法,和价值规范类似,关于人工智能的国际法同样重在规制技术,以隐私权、信息自由流动、算法问责等为主,显示出显著的学习探索状态。比如欧盟新设欧盟人工智能委员会,从《通用数据保护条例》中延续下来了对人工智能的“长臂管辖”,即不管人工智能产品的提供者在何处,只要其生产的人工智能系统运用于欧盟区域,就需要遵守法案的要求。美国也接着消费者主权的名义,对于算法透明、网络安全等进行立法。在跨国维度上的国际法重在数字经济,基本上是不具备强制性的软法,对各国政府推动人工智能武器化的国际法约束更是付诸阙如。尤其是考虑到政策学习的联动性特征,全球治理与各国国内的政治互动相联系,随着美国国内政治极化、欧盟一体化进程受挫,未来的学习过程绝非一帆风顺。总体来看,只有当人工智能的各方都有强烈的兴趣来达成协议的情况下,才有可能接受合作可能造成的具体损失、形成相应的规范体系。目前权力均势尚未形成,对话也不明确,价值规范确立还需要更多政策学习过程。在这种情况下,在政策实践中难以确立实际的规范,对霸权国家与大型互联网公司主导的人工智能研发缺乏约束力。通过全球治理使得人工智能嵌入国际体系是渐进的过程,目前这一过程的动力机制不足,还未能形成核治理的那种主要国家权力格局稳固、规范体系得以确立的局面。可以说,人工智能全球治理的基本特征是制度化不足,而这必将影响未来的治理趋势。

四、从核治理的历史演变看人工智能全球治理的未来趋势

在制度化不足的治理格局下,如果进行历史比较的话,当下人工智能的全球治理大致还处于五十年代各国竞相发展核武器的阶段。这里需要再次说明,人工智能的全球治理不同于国家治理,关注的并非隐私等个人权利保护,而是对国际冲突的约束和对国际秩序的维护。在制度化不足的治理格局下,国际体系对于人工智能的吸纳程度有限,未来短期内风险主导的概率较大,而长期则可以根据核治理的历史经验秉持谨慎的乐观。(一)短期内风险主导二十世纪五六十年代是核治理历史上风险频出的阶段,各主要国家竞相发展核武器与核载具,出现了古巴导弹危机、爆炸了人类历史上最大当量的氢弹、在国际冲突中出现了频繁的核讹诈。人工智能快速进步而治理不足,武器化趋势不可避免,短期内可能处于类似阶段,对国际秩序带来冲击。一方面,国与国之间针对人工智能和使用人工智能的冲突愈发剧烈,狭义的人工智能武器化有助于降低技术优势方的人员伤亡,对某些国家来说可以降低战争的国内政治压力,增加了战争可能。广义的人工智能武器化则是主要国家进行权力博弈的重要工具,有成为“人工智能威慑”的潜在风险。现有对话机制尚未具体探讨这一风险,缺乏规范共识会使各国有强烈冲动对此进行尝试。核治理经历了去意识形态化的过程,即美苏在博弈中对彼此意图有所了解,意识形态的剧烈冲突在一定程度上被消解。而近期人工智能治理则可能经历相反的变化,叠加西方国家的意识形态偏见,从而走向“再意识形态化”,比如牛津大学人工智能治理研究所的学者认为人工智能有可能强化极权制度,指出威权国家在人工智能的社会监控方面进行了巨大投资[31]。意识形态化话语引入人工智能全球治理的分析,表明这一领域的竞争对于价值观的冲击已经显现。除了主要国家之间的博弈外,大国与小国、政府与企业的博弈同样重要。首先,仅在当下这个节点来看,人工智能的研发需要巨大的投资、海量的数据、特定的制度环境,在斯坦福大学的人工智能报告中,排名世界前列的既有美国、中国这样的大国,也有新加坡这样的规模较小的国家[32]。鉴于技术进步的开放性,难以断言未来武器化的人工智能是进一步走向大国垄断,还是赋权小国,人工智能的全球治理有着比核治理更加复杂的可能性。其次,试图掌控人工智能的政府与作为主要投资者、开发者的互联网公司也会出现冲突,尤其是大型互联网公司将成为重要的政治行动者,进一步考验政治体制的韧性。比如在2016年、2020年两次总统选举中,美国出现了对于社交媒体干预政治的普遍质疑,而在英国脱欧中也有类似声音。在不稳定的全球治理格局下,人类应对人工智能所带来的全球性技术、经济与社会风险的能力被制约了。根据熊彼特的经典定义,创新是一种创造性破坏,而人工智能会造成哪些破坏,这些破坏能不能通过制度调适与社会结构调整来被较好地消纳掉?治理的目标是规避风险而发挥优势,但人工智能对于全球社会结构的伤害风险还没有被充分预知,人工智能风险绝非自由主义对个人权利的狭隘关注,仅仅探讨隐私保护等人权风险,而是涉及人类的基本制度安排。当主要国家沉溺于权力博弈时,仅靠学术界、传媒界和企业界是无法回答上述问题的。所以,短期来看,人工智能全球治理有较大概率出现风险主导、冲突频繁的局面,这会是新技术社会化过程中的阵痛。类似的情况不但出现在核武器上,也出现在化学武器上。在经历过第一次世界大战中的大规模投入后,随着防御措施的完善与国际体系的规范,化学武器的使用范围大幅缩小。历史经验表明,只有在权力均势基本达成、对话持续深入和经历充分学习之后,人工智能全球治理的有效架构才能形成。(二)长期间制度化重构人工智能虽然存在着巨大风险,但这种风险未必会超过核武器,当下国际体系中的动荡、意识形态与文明的冲突也未必能够与第二次世界大战和冷战相比。既然人类已经成功地将核治理制度化了,那么长期来看,没有理由不能成功地进行人工智能的全球治理。未来难以预测,这里仅比照核治理的三项机制,来认识人工智能全球治理的长期趋势。首先,在权力均势上,美国、中国、欧盟与其他国家的人工智能发展各有优势,从而有望形成比核治理更加多元和均衡的权力格局。在技术特点上,核武器倾向于民族国家的排他性独占,而人工智能倾向于国际网络的合作,即使某些国家使用霸权方式强制推动对立,也很难在长时期内进行技术封锁。其次,在对话机制上,主要国家之间的对话逐渐深入,中美已经同意建立人工智能政府间对话,斯坦福大学的统计数据显示,从2010年到2021年,中美合作发表人工智能论文数量增长了四倍,美国与欧盟之间在国际法上的沟通也在深化。最后,在学习机制上,武器化的人工智能已经在俄乌战场上投入战斗,主要国家间使用人工智能的网络攻防在继续,而各国内部政府与互联网公司之间的也在进行。正是在这样高密度的冲突博弈中,全球治理的行动者正在更好地理解人工智能及其应用,而且这种学习是比古巴导弹危机这样的危险局面更加安全的过程。总之,经过一定时间的国际博弈,人工智能全球治理的制度化程度有望得到提升。以ChatGPT为代表的生成式人工智能已经日渐被看作国家实力的重要组成,而以更长的时间段内,人工智能会有更明确的制度安排。当核武器的原料都可以被放置在核电站中、成为清洁能源,我们对于人工智能创造福祉的未来也就可以拥有更多信心。

五、结语

核治理的历史经验为我们理解人工智能全球治理提供了重要的参照系。核治理的国际规范是由大国的权力均势、对话机制和学习机制形成的,这综合了现实主义与建构主义对于国际关系的理解。使用这一标准来看,人工智能的全球治理并没有为即将到来的风险做好充足的准备,这并不是缺乏“专家发言”、公众讨论或者学术论文,而是在急剧变化的技术条件下,权力的均势尚未形成,各国都在竞相发展人工智能及其武器化,对话机制不成熟而学习过程仍在继续。人工智能的武器化趋势不可避免,若进行大致的阶段比较的话,当下的人工智能全球治理可以参照二十世纪五六十年代的核治理。在这种情况下,短时间内会出现风险主导,但在一定的博弈后,长时段内则可以秉持谨慎的乐观。毕竟,或隐或现的决定论,不论是技术决定论还是其他决定论,总是将人类发展归结于某种宿命,但历史却总是找到自己的答案。


分享: