【导读】 “很(hěn)少有(yǒu)哪个时代面临过如此局面:一方面,其遭遇的战略和技术挑战如此复杂;另一方面,对该挑战的性质乃至讨论其所需的词汇却鲜有(yǒu)共识”,2023年,曾亲历二战和冷战、在中美建交中发挥过重要作用(yòng)的亨利·基辛格以百岁高龄发出了这样的警告,“如果等到危机来临才开始思考这些问题,那就為(wèi)时太晚了。”
近日,基辛格和谷歌前首席执行官埃里克·施密特、麻省理(lǐ)工學(xué)院苏世民(mín)學(xué)院院長(cháng)丹尼尔·胡腾洛赫尔共同推出新(xīn)著《人工智能(néng)时代与人类未来》。在本书中,基辛格指出,新(xīn)兴的人工智能(néng)技术极有(yǒu)可(kě)能(néng)颠覆性地重塑全球安全格局,并有(yǒu)可(kě)能(néng)加剧中美等大國(guó)之间的竞争与对立。他(tā)呼吁技术领先國(guó)家对此加以重视,未雨绸缪,防患未然,就人工智能(néng)军事用(yòng)途的限制积极展开对话。
数字时代的冲突
纵观历史,一个國(guó)家的政治影响力往往与其军事力量和战略能(néng)力大致匹配。所谓战略能(néng)力,也就是说,通过这种能(néng)力,即使仅仅施加隐性威胁,也会对其他(tā)社会造成破坏。然而,这种基于力量权衡的均势不是静态的,不能(néng)自我维持。相反,均势的维持首先依赖于各方就这一力量的构成要素及其使用(yòng)的合法界限达成共识;其次,它需要體(tǐ)系内所有(yǒu)成员——尤其是对手——就各个國(guó)家的相对能(néng)力、意图和侵略的后果进行一致的评估;最后,它需要一个实际的、公认的平衡。当體(tǐ)系中某一方的力量不成比例地增長(cháng)、打破平衡时,體(tǐ)系将组织对抗力量或适应新(xīn)的现实,以设法做出调整。当均势的权衡变得不确定,或当各國(guó)对各自相对实力的权衡结果完全不同时,由误算引发冲突的风险就会达到最高。
在当今时代,所谓“网络武器”的出现使上述权衡更具抽象性。网络武器涉及军用(yòng)和民(mín)用(yòng)两个领域,因此其作為(wèi)武器的地位是模糊的。在某些情况下,网络武器之所以能(néng)行使和增强军事力量效用(yòng),主要是因為(wèi)其使用(yòng)者未披露其存在或未承认其全部能(néng)力。传统上,冲突各方都不难认识到发生了交战,或者认识到交战各方是谁,会计算对方的战力,并评估其部署武器的速度。可(kě)是,这些在传统战场上颠扑不破的道理(lǐ)却不能(néng)直接套用(yòng)到网络领域。
常规武器和核武器存在于物(wù)理(lǐ)空间中,其部署可(kě)以被察觉,其能(néng)力可(kě)以被(至少粗略地)计算。相比之下,网络武器的效用(yòng)很(hěn)大程度上源于其不透明性;若被公之于众,其威力就会减损。网络武器利用(yòng)不為(wèi)人知的软件漏洞,在未经授权用(yòng)户许可(kě)或知情的情况下,侵入网络或系统。在“分(fēn)布式拒绝服務(wù)”(DDoS)攻击(如对通信系统的攻击)的突发事件中,攻击者可(kě)能(néng)会使用(yòng)大量看似有(yǒu)效的信息请求来压垮系统,使之无法正常使用(yòng)。在这种情况下,攻击的真实来源可(kě)能(néng)被掩盖,使人(至少在当时)难以或无法确定攻击者。即使是最著名的网络工业破坏事件之一—破坏了伊朗核项目中制造控制计算机的震网(Stuxnet)病毒,也从未被任何政府正式承认。
常规武器和核武器可(kě)以相对精确地瞄准目标,根据道德和法律的要求,其瞄准对象只能(néng)是军事力量和军事设施。而网络武器可(kě)以广泛影响计算和通信系统,往往可(kě)对民(mín)用(yòng)系统造成有(yǒu)力打击。其他(tā)行為(wèi)體(tǐ)也可(kě)基于其他(tā)目的,对网络武器进行吸纳、修改和重新(xīn)部署。某种程度上,网络武器与生化武器类似,其影响能(néng)够以非预期的、未知的方式传播,往往不仅影响战场上的特定目标,且波及大范围的人类社会。
因此,网络军备控制难以被概念化,从而进一步推行。核军备控制的谈判人员可(kě)以公开披露或描述一类核弹头,不必否认其功能(néng)。而(目前尚不存在的)网络军备控制谈判人员则需要面对以下悖论:一旦对网络武器的威力进行讨论,可(kě)能(néng)就会导致这种威力的丧失(允许对手修补漏洞)或扩散(对手得以复制代码或侵入方法)。
关键网络术语和概念的模糊性使这些挑战变得更加复杂。在不同的背景下,不同的观察者将形式各异的网络入侵、在線(xiàn)宣传和信息战称為(wèi)“网络战”、“网络攻击”或“战争行為(wèi)”。但这些词汇不固定,甚至有(yǒu)歧义。例如,侵入网络以收集信息的活动,可(kě)能(néng)与传统的情报收集类似,尽管涉及范围有(yǒu)所不同;部分(fēn)國(guó)家在社交媒體(tǐ)上干预选举的活动,则是一种数字化宣传、虚假信息传播和政治干预的结合,其范围和影响遠(yuǎn)超以往任何时代。数字技术和网络平台的扩展,使依托其上的此类活动成為(wèi)可(kě)能(néng)。此外,其他(tā)网络行动也可(kě)能(néng)造成与传统敌对状态类似的实际影响。网络行动的性质、范围及归属的不确定性,可(kě)能(néng)会使看似基本无误的因素成為(wèi)各方争论的焦点问题:冲突是否已经开始、与谁冲突、冲突涉及什么、冲突可(kě)能(néng)升级到何种程度,等等。从这个意义上说,各个大國(guó)正陷入一种网络冲突,但这种冲突的性质和范围尚无现成的定义。
我们所处的数字时代面临一个核心悖论:一个社会的数字能(néng)力越强,就变得越脆弱。计算机、通信系统、金融市场、大學(xué)、医院、航空公司、公共交通系统甚至民(mín)主政治都依托于系统,而这些系统或多(duō)或少可(kě)被网络操纵或攻击。随着发达经济體(tǐ)将数字指挥和控制系统整合到发電(diàn)厂和電(diàn)网中、将政府项目转移到大型服務(wù)器和云系统中、将数据转誊到電(diàn)子账簿中,它们在网络攻击面前也就变得倍加脆弱。这些行為(wèi)提供了更丰富的目标集合,因此仅仅一次成功的攻击就可(kě)能(néng)造成实质性的破坏。与此相对,面对数字破坏,低技术國(guó)家、恐怖组织甚至个人攻击者所承受的损失可(kě)能(néng)要小(xiǎo)得多(duō)。
网络能(néng)力和网络行动成本较低,且具有(yǒu)相对的可(kě)否认性,因此,一些國(guó)家可(kě)能(néng)会使用(yòng)半自主行為(wèi)體(tǐ)来执行该功能(néng)。与一战前夕遍布巴尔干半岛的准军事集团一样,这些半自主团體(tǐ)可(kě)能(néng)难以控制,在未经官方批准的情况下开展挑衅活动。网络领域中行為(wèi)的快速和不可(kě)预测性、各种行為(wèi)體(tǐ)间关的复杂性,以及可(kě)以极大削弱一國(guó)网络能(néng)力并搅乱國(guó)内政治格局(即使这些活动不会升级到传统的武装冲突水平)的泄密者和破坏者的存在,都可(kě)能(néng)诱使决策者“先发制人”,以防遭受致命打击。
网络领域行為(wèi)的速度和模糊性有(yǒu)利于进攻方,并鼓励以“积极防御”和“向前防御”寻求扰乱、排除攻击。网络威慑可(kě)能(néng)达到的程度,部分(fēn)取决于防御者的目标及衡量成功的标准。最有(yǒu)效的攻击往往不会达到武装冲突的传统定义门槛(通常未得到立即承认或正式承认)。即便是為(wèi)了威慑,也没有(yǒu)任何一个主要的网络行為(wèi)體(tǐ)公开其全部的能(néng)力或活动,无论该行為(wèi)體(tǐ)是政府的抑或非政府的。因此,尽管新(xīn)的能(néng)力正在涌现,相关战略和理(lǐ)论仍处于隐蔽的阴影中,以不确定的方式演变。我们正处于全新(xīn)的战略前沿,需要进行系统性的探索,促进政府和工业界密切合作以确保有(yǒu)竞争力的安全能(néng)力,还需要大國(guó)之间在适当的保障措施下及时就网络军备限制进行讨论。
人工智能(néng)与安全领域的动荡
核武器的破坏性和网络武器的神秘性,正日益与一种更新(xīn)的能(néng)力相结合,也就是前几章中所谓基于人工智能(néng)原理(lǐ)的能(néng)力。各國(guó)正在悄无声息地、有(yǒu)时是试探性地、但又(yòu)确凿无疑地发展和部署人工智能(néng),这将促进各种军事能(néng)力的战略行动,进而对安全政策产生革命性影响。
将非人类逻辑引入军事系统和过程,会给战略带来改变。通过与人工智能(néng)共同培训或与之合作,军队和安全部门的洞察力和影响力显著提升,这既令人惊讶,也令人不安。军队与人工智能(néng)的伙伴关系,或将否定传统战略和战术的某些方面,而加强另一些方面。如果人工智能(néng)被赋予权限,能(néng)够在一定程度上控制(攻击性或防御性的)网络武器或飞机等物(wù)理(lǐ)武器,它可(kě)能(néng)会迅速执行人类难以执行的功能(néng)。例如,美國(guó)空军的人工智能(néng)ARTUμ已经在飞行测试中成功驾驶飞机并操作雷达系统。ARTUμ的研发初衷是在无人干预的情况下做出“最后抉择”,其能(néng)力仅限于驾驶飞机和操作雷达系统,但其他(tā)國(guó)家和设计团队可(kě)能(néng)就没有(yǒu)那么大的限制了。
人工智能(néng)的自主和独立逻辑能(néng)力不仅有(yǒu)可(kě)能(néng)推动变革,还具有(yǒu)一定的不可(kě)预料性。大多(duō)数传统的军事战略和战术都基于对人类对手的假设,即假设对手的行為(wèi)和决策计算符合某种可(kě)识别的框架,或者可(kě)由经验和传统智慧界定。然而,当人工智能(néng)驾驶飞机或用(yòng)雷达扫描目标,它遵循的是其自身的逻辑,难以被人类所理(lǐ)解,也不受传统信号和佯攻的影响,而且,其逻辑执行速度往往高于人类的思维速度。
战争一向充满不确定性和偶然性,但人工智能(néng)的进入将為(wèi)其带来新(xīn)的变数。人工智能(néng)是不断发展变化的新(xīn)事物(wù),因此,即使是那些创造出人工智能(néng)并使其设计或操作的武器的强國(guó),可(kě)能(néng)也无法确定其威力、无法预判其行动。人工智能(néng)可(kě)以感知到人类无法或无法快速感知的环境,甚至能(néng)以超越人类的思维速度与思维广度进行學(xué)习和改进,对于这样一种事物(wù),我们怎么可(kě)能(néng)制定有(yǒu)针对性的进攻或防御战略呢(ne)?如果人工智能(néng)辅助武器的效果取决于人工智能(néng)在战斗中的感知及从中得出的结论,那么,某些武器的战略效果是否只能(néng)在使用(yòng)中得到证明?如果竞争对手在静默和保密的情况下训练其人工智能(néng),那么在冲突尚未发生时,领导人能(néng)知道己方在军备竞赛中是领先还是落后吗?
在传统的冲突中,对手的心理(lǐ)是战略行动瞄准的关键点。但算法只知道指令和目标,而不知士气或怀疑為(wèi)何物(wù)。由于人工智能(néng)可(kě)以适应其所遇现象,当两个人工智能(néng)武器系统彼此对抗时,交战双方都无法准确理(lǐ)解这一交互将产生何种结果、造成哪些附带影响,也就无法清晰地把握对方的能(néng)力、预测冲突的代价。对人工智能(néng)武器的工程师和构建者而言,由于受到这些限制,他(tā)们在研发和制造过程中会更注重提高武器的速度、影响广度和持久度,从而使冲突更激烈、广泛、不可(kě)预测。
同时,即使有(yǒu)人工智能(néng)辅助,强大的防御也是安全的先决条件。新(xīn)技术的普遍性使人们无法单方面放弃它。然而,即便是在整兵备战时,各國(guó)政府也应该评估并尝试将人工智能(néng)逻辑加入人类战斗经验,以使战争变得更人道、更精确。新(xīn)技术对外交和世界秩序的影响也需加以反思。
人工智能(néng)和机器學(xué)习可(kě)以扩大现有(yǒu)武器的打击能(néng)力,进而改变行為(wèi)者的战略和战术选择。人工智能(néng)不仅能(néng)提高常规武器的瞄准精度,还能(néng)改变瞄准方式,比如(至少在理(lǐ)论上)瞄准某个特定的个人或物(wù)體(tǐ),而非某个地点。通过研究大量信息,人工智能(néng)网络武器可(kě)以學(xué)习如何渗透防御,无需人类寻找可(kě)利用(yòng)的软件漏洞。同样,人工智能(néng)也可(kě)用(yòng)于防御,在漏洞被利用(yòng)之前发现并修复它们。但是,由于攻击者可(kě)以选择目标而防御者不能(néng),在人工智能(néng)的辅助下,进攻方即便不是战无不胜,也能(néng)占得先机。
如果一个國(guó)家面对的对手已经训练人工智能(néng)来驾驶飞机、独立瞄准并决定开火,这将如何影响战术、战略或诉诸升级战争规模(甚至是核战)的意愿?
人工智能(néng)开辟了信息空间能(néng)力,包括虚假信息领域。生成式人工智能(néng)可(kě)以创造大量似是而非的虚假信息,包括伪造的人物(wù)、图片、视频和演讲等,以此為(wèi)信息战和心理(lǐ)战推波助澜。理(lǐ)论上,人工智能(néng)可(kě)以合成看似真实的冲突照片和视频,让公众人物(wù)“发表”他(tā)们其实从未说过的言论,并将其以最有(yǒu)效地方式广泛转发给目标群體(tǐ),迎合人们的偏见和期望。如果一个國(guó)家领导人的合成形象被对手操纵,以制造不和或发布误导性指令,公众(甚至其他(tā)政府和官员)能(néng)够及时识破骗局吗?
与核武器领域不同的是,对人工智能(néng)的使用(yòng)并不存在公认的禁令,也没有(yǒu)明确的威慑(或升级程度)概念。美國(guó)的竞争对手正在打造人工智能(néng)辅助武器,包括实體(tǐ)武器和网络武器,据报道,其中一些已投入使用(yòng)。人工智能(néng)大國(guó)有(yǒu)能(néng)力部署机器和系统,这些系统具有(yǒu)快速逻辑推理(lǐ)和不断演化的行為(wèi)能(néng)力,可(kě)用(yòng)于攻击、防御、监视、传播虚假信息,以及识别和破坏敌方的人工智能(néng)。
随着变革性人工智能(néng)能(néng)力的不断发展和传播,在没有(yǒu)可(kě)验证的限制因素的情况下,世界主要國(guó)家会继续追求优势地位。它们会假定,新(xīn)的、可(kě)用(yòng)的人工智能(néng)一旦出现,就必定会扩散。由于具备军民(mín)双重用(yòng)途、易于复制和传播,人工智能(néng)的基本原理(lǐ)和关键创新(xīn)在很(hěn)大程度上是公开的。即使对其加以监管,监管机制也很(hěn)难做到无懈可(kě)击:监管方式可(kě)能(néng)随着技术进步而过时,也可(kě)能(néng)被窃取人工智能(néng)者发现漏洞。人工智能(néng)的新(xīn)用(yòng)户可(kě)能(néng)会调整基础算法,以实现迥然不同的目标,一个社会的商(shāng)业创新(xīn)可(kě)能(néng)会被另一个社会用(yòng)于维护安全或信息战。政府时常会采纳尖端人工智能(néng)发展中最具战略意义的方面,以满足其國(guó)家利益设想。
平衡网络力量平衡、将人工智能(néng)威慑概念化的相关工作尚处于起步阶段。在对这些概念给出确切定义之前,对此类问题的规划是抽象的。比如,在冲突中,交战一方可(kě)能(néng)试图使用(yòng)或威胁使用(yòng)一种效果未知的武器,以此摧垮对方的意志(zhì)。
而最具颠覆性且不可(kě)预测的影响,可(kě)能(néng)发生在人工智能(néng)和人类智能(néng)遭遇之时。纵观历史,积极备战的國(guó)家对其对手的理(lǐ)论、战术和战略心理(lǐ),即便不是洞若观火,至少也有(yǒu)大致了解。这使对抗性战略和战术得以发展,并形成了一系列象征性话语(例如拦截靠近边境的飞机、通过争议水域等)。然而,当由人工智能(néng)来制订计划或锁定目标,甚至由人工智能(néng)在常规巡逻或冲突期间提供动态协助时,这些原本熟悉的概念和互动可(kě)能(néng)会变得陌生——人们需要与一种新(xīn)型智能(néng)打交道,而该智能(néng)的运作方式和战术都是未知的。
从根本上说,向人工智能(néng)和人工智能(néng)辅助武器及防御系统的转变,将导致对智能(néng)的依赖。这种智能(néng)的运作所基于的经验范式与人类有(yǒu)本质區(qū)别,且具备可(kě)观的分(fēn)析潜力。在极端情况下,这种依赖甚至演变為(wèi)一种授权,可(kě)能(néng)导致未知的风险。因此,人类操作者必须对具有(yǒu)潜在致命影响的人工智能(néng)加以监控,即便不能(néng)避免所有(yǒu)错误,至少要保障道德责任和问责能(néng)力。
然而,最深层的挑战可(kě)能(néng)是哲學(xué)层面上的。如果战略的分(fēn)析运作无法再為(wèi)人类理(lǐ)性所理(lǐ)解,则其过程、范围和最终意义将变得不再透明。如果决策者认為(wèi),在揭示现实的最深层模式、了解(可(kě)能(néng)拥有(yǒu)自己的人工智能(néng)的)对手的能(néng)力和意图并及时做出应对的过程中,人工智能(néng)的辅助已必不可(kě)少,那么,将关键决策权下放给机器可(kě)能(néng)成為(wèi)必然趋势。各个社会可(kě)能(néng)会就“哪些决策权可(kě)以下放”、“何种风险和后果是可(kě)以接受的”等问题,给出各不相同的答(dá)案。主要大國(guó)应当未雨绸缪,提前就该演变的战略、學(xué)说和道德影响展开对话,否则将导致不可(kě)逆的影响。國(guó)际社会必须做出努力,以限制这些风险。
管控人工智能(néng)
在智能(néng)體(tǐ)系互相对抗之前,我们必须对这些问题加以考量和理(lǐ)解。随着网络和人工智能(néng)能(néng)力被用(yòng)于战略目的,战略竞赛的领域变得更為(wèi)广阔,从而使这些问题变得迫在眉睫。某种程度上说,网络和人工智能(néng)使一切与数字网络相连的地方都成為(wèi)“战场”。如今,数字程序控制着一个由众多(duō)实體(tǐ)系统构成的领域,该领域极為(wèi)庞大,且仍在增長(cháng)(某些情况下,甚至连门锁和冰箱都接入了网络)。这催生出一个极其复杂、广泛和脆弱的系统。
对人工智能(néng)强國(guó)来说,追求某种形式的彼此理(lǐ)解和相互制约至关重要。由于相应系统和能(néng)力可(kě)以通过计算机代码的变化而轻易地悄然改变,各大政府可(kě)能(néng)倾向于认為(wèi),其对手在战略敏感的人工智能(néng)研究、开发和部署方面的步调会比其公开承认甚至私下承诺的更进一步。从纯技术角度来看,让人工智能(néng)参与侦察、锁定目标或是展开致命性自主行动并不难,因此,一套相互制约和验证的體(tǐ)系的體(tǐ)系的构建显得既紧迫又(yòu)困难。
要寻求保障和制约,就必然与人工智能(néng)的动态本质相抗衡。由人工智能(néng)驱动的网络武器一旦问世,就可(kě)能(néng)在适应能(néng)力和學(xué)习能(néng)力上遠(yuǎn)超预期;武器的能(néng)力或将随之改变。如果武器能(néng)够以某种方式改变,且改变的范围或性质不同于预期,那么威慑和升级的设想可(kě)能(néng)变得更加扑朔迷离。因此,无论是在初始设计抑或最终部署阶段,都需要调整人工智能(néng)的运行范围,以便人类对系统加以监视,在其偏离初始目标时将其关闭或重新(xīn)定向。為(wèi)了避免意外、潜在的灾难性后果,这种限制必须是相互的。
无论是限制人工智能(néng)和网络能(néng)力,抑或遏制其扩散,都非常困难。主要大國(guó)开发和使用(yòng)人工智能(néng)和网络的能(néng)力,有(yǒu)可(kě)能(néng)落入恐怖分(fēn)子和流氓帮派手中。同样,那些没有(yǒu)核武器、常规武器军力也有(yǒu)限的小(xiǎo)國(guó),也可(kě)以通过投资尖端的人工智能(néng)和网络武器,发挥出巨大的影响力。
各國(guó)势必会把非连续、非致命的任務(wù)委托给人工智能(néng)算法(部分(fēn)由私营实體(tǐ)操作),其中包括执行检测和防止网络空间入侵的防御功能(néng)。一个高度网络化和数字化的社会“受攻击面”太大,人类操作者无法仅凭手动实现防御。随着人类生活的许多(duō)方面转移到网上,经济也持续数字化,一个流氓网络人工智能(néng)就可(kě)能(néng)破坏整个行业。國(guó)家、公司甚至个人都应该着手构建某种失效保护體(tǐ)系,以防患于未然。
这种保护的最极端形式即切断网络连接。对國(guó)家而言,离線(xiàn)可(kě)能(néng)是终极的防御形式。如果排除这种极端措施,那么,能(néng)够执行某些重要网络防御功能(néng)的就只有(yǒu)人工智能(néng)了——网络空间浩瀚无垠,在此可(kě)采取的行动选项几乎无穷无尽,因此,除了少数几个國(guó)家,这一领域内最重要的防御能(néng)力可(kě)能(néng)是其他(tā)國(guó)家力所不及的。
除了人工智能(néng)防御系统,还有(yǒu)一类最令人头疼的武器——致命自主武器系统。该系统一旦被激活,就可(kě)以在没有(yǒu)人类干预的情况下选择目标并实施打击。这类武器的关键问题是人类对其缺乏监督和干预的能(néng)力。
一个自主系统“在其指令环路中”的某些行动需要人类授权,或需要一个人“在指令环路上”被动地监控其活动。除非受到可(kě)遵守和可(kě)证实的相互协议的限制,前者最终可(kě)能(néng)涵盖全部战略和目标(例如保卫边境或实现针对敌人的特定结果),且无需耗费大量人力。在这些领域,必须确保人类的判断能(néng)发挥作用(yòng),实现对武器的监督和指导。如果只有(yǒu)一个或少数几个國(guó)家接受这些限制,意义是有(yǒu)限的。先进國(guó)家的政府应探讨如何以可(kě)行的方式进行检查,进而在此前提下实现相互制约。
人工智能(néng)的引入,使人们可(kě)能(néng)為(wèi)抢占先机而将某种武器仓促投入使用(yòng),进而引发冲突。当一个國(guó)家担心其对手正在发展自动化军力时,可(kě)能(néng)会“先发制人”;而如果攻击“成功”了,担忧的合理(lǐ)性也就无法再得到证实或证伪。為(wèi)防止冲突意外升级,大國(guó)应在一个可(kě)验证的限制框架内进行竞争。谈判不只包括缓和军备竞赛,还应该确保双方都大致了解对方动向。但双方都必须对一点有(yǒu)所预期(并据此进行筹划):对方会对自己最具敏感性的秘密有(yǒu)所保留。正如冷战期间的核武器谈判所表明的,國(guó)家间永遠(yuǎn)不会有(yǒu)完全的信任,但这并不意味着无法达成某种程度的谅解。
我们提出这些问题,是為(wèi)了界定人工智能(néng)给战略带来的挑战。界定核时代的条约(以及随之而来的沟通、执行和核查机制)给我们带来了各方面的收益,但并非历史的必然产物(wù),而是人类能(néng)动性的产物(wù),是共同承担危机和责任的产物(wù)。
对民(mín)用(yòng)和军事技术的影响
传统上,三个技术特性促成了军事和民(mín)用(yòng)领域的分(fēn)野:技术差异、集中控制和影响规模。所谓技术差异,是指军用(yòng)和民(mín)用(yòng)技术的區(qū)别。所谓集中控制,是指部分(fēn)技术易于被政府管控,与容易传播、规避政府控制的技术相反。所谓影响规模,则是指一项技术的破坏性潜力。
纵观历史,许多(duō)技术都是军民(mín)两用(yòng)的。至于其他(tā)技术,一些很(hěn)容易广泛传播,另一些则具有(yǒu)巨大的破坏力。然而,迄今為(wèi)止,还没有(yǒu)一种技术同时具备以下三种特性:军民(mín)两用(yòng)、易于传播和潜在的巨大破坏性。运送货物(wù)到市场的铁路和运送士兵到战场的铁路是一样的,铁路不具有(yǒu)破坏性潜力。核技术通常是军民(mín)两用(yòng)的,且破坏性巨大,但核设施很(hěn)复杂,这使政府能(néng)够相对安全地控制核技术。猎枪可(kě)能(néng)被广泛使用(yòng),同时具有(yǒu)军民(mín)用(yòng)途,但其有(yǒu)限的能(néng)力使持枪者无法在战略层面造成破坏。
而人工智能(néng)打破了这种范式。很(hěn)明显,人工智能(néng)可(kě)以军民(mín)两用(yòng);也很(hěn)容易传播,只需几行代码,大多(duō)数算法(除了部分(fēn)例外)可(kě)以在单个计算机或小(xiǎo)型网络上运行,这意味着政府很(hěn)难通过控制基础设施来控制这种技术;其应用(yòng)具有(yǒu)巨大的破坏性潜力。这种独一无二的特性组合,加上广泛的利益相关者,产生了具有(yǒu)全新(xīn)复杂性的战略挑战。
人工智能(néng)赋能(néng)武器,使对手能(néng)以惊人的速度发起数字攻击,并极大提高其利用(yòng)数字漏洞的能(néng)力。这样一来,对于即将到来的攻击,一个國(guó)家可(kě)能(néng)还来不及评估就需立即响应,否则就可(kě)能(néng)被对方解除武装。如果一个國(guó)家有(yǒu)相应手段,就可(kě)以在对方完全展开攻击之前做出回应,构建一个人工智能(néng)系统来预警攻击并加以反击。这一系统的存在,及其毫无预警地实施行动的能(néng)力,可(kě)能(néng)会刺激另一方投入更多(duō)建设和规划,包括开发并行技术或基于不同算法的技术。如果人类也参与了这些决定,那么除非各方谨慎地发展出一个共同的限制理(lǐ)念,否则先发制人的冲动可(kě)能(néng)会压倒谋定后动的需要,就像20世纪初的情况一样。
在股票市场,一些复杂的所谓量化公司认识到,人工智能(néng)算法可(kě)以发现市场模式,并比最佳操盘手更快地做出反应。因此,这些公司已将其证券交易的部分(fēn)控制权委托给算法。算法系统所赢得的利润通常遠(yuǎn)超人类操盘手。然而,它们偶尔会严重误判,误判程度遠(yuǎn)超最糟糕的人為(wèi)错误。
在金融领域,此类错误会毁掉投资,但不会致人死地。然而,在战略领域,一次类似“闪電(diàn)崩盘”的算法故障可(kě)能(néng)引发灾难性后果。如果数字领域的战略防御需要战术上的进攻,那么当一方在此类计算或行动上出错时,就可(kě)能(néng)在不经意间使冲突升级。
将这些新(xīn)能(néng)力纳入一个明确的战略和國(guó)际均势概念的尝试非常复杂,因為(wèi)技术优势所需的专业知识不再完全集中于政府方面。从传统的政府承包商(shāng)到个人发明家、企业家、初创企业和私人研究实验室,各种各样的行為(wèi)體(tǐ)和机构都参与到对这一具有(yǒu)战略意义的技术的塑造过程中,而并非其中所有(yǒu)人都认為(wèi)其使命应与联邦政府所界定的國(guó)家目标保持内在一致。工业界、學(xué)术界和政府之间的相互教育过程可(kě)以帮助弥合这一鸿沟,并确保各方在一个共同的概念框架内理(lǐ)解人工智能(néng)战略意义的关键原则。很(hěn)少有(yǒu)哪个时代面临过如此局面:一方面,其遭遇的战略和技术挑战如此复杂;另一方面,对该挑战的性质乃至讨论其所需的词汇却鲜有(yǒu)共识。
核时代尚未解决的挑战是:人类发展了一种技术,战略家们却找不到可(kě)行的军事行动理(lǐ)论。人工智能(néng)时代的困境与之不同:典型技术将被广泛获取、掌握和应用(yòng)。无论是在理(lǐ)论概念上还是在实践操作中,实现相互间的战略克制,甚至是实现对“克制”的共同定义,都将空前地困难。
即使历经半个世纪的努力,如今对核武器的管控仍不尽完善。然而,评估核平衡其实相对简单:核弹头可(kě)以计数,其生产也是已知的。人工智能(néng)则不同:其能(néng)力不是固定的,而是动态变化的。与核武器不同的是,人工智能(néng)很(hěn)难被追查:一旦经过训练,它们可(kě)以被轻易复制,并在相对较小(xiǎo)的机器上运行。以目前的技术,对其存在进行证实或证伪,将是极其困难甚至无法实现的。在这个时代,威慑可(kě)能(néng)来自一种复杂性——来自人工智能(néng)攻击能(néng)够借助载體(tǐ)的多(duō)样性,也来自潜在的人工智能(néng)反应速度。
為(wèi)了管控人工智能(néng),战略家必须考虑如何将其纳入负责任的國(guó)际关系模式。在部署武器之前,战略家必须了解使用(yòng)武器的迭代效应、这些武器导致冲突升级的可(kě)能(néng)性和谋求冲突降级的途径。负责任地使用(yòng)策略,再辅以制约原则,将是必不可(kě)少的举措。决策者应致力于同时处理(lǐ)军备、防御技术和战略,以及军备控制问题,而不是将其视為(wèi)在时间上前后不同、在功能(néng)上彼此对立的步骤。必须在技术付诸使用(yòng)前就制定理(lǐ)论并做出决定。
那么,这种制约的要求是什么呢(ne)?一个显见的出发点就是以传统强制方式对能(néng)力加以制约。在冷战期间,这种做法获得了一些进展,至少在象征意义上如此。一些能(néng)力受到了限制(如弹头),另一些(如中程导弹)则被彻底禁止。但无论是限制人工智能(néng)的潜在能(néng)力,还是限制人工智能(néng)的数量,都不能(néng)完全符合这种技术在民(mín)用(yòng)领域的广泛应用(yòng)和持续发展态势。我们必须研究新(xīn)的限制因素,重点是人工智能(néng)的學(xué)习和目标锁定能(néng)力。
在一项部分(fēn)预见到这一挑战的决定中,美國(guó)对“人工智能(néng)赋能(néng)武器”和“人工智能(néng)武器”进行了划分(fēn),前者使人类指挥的战争更精确、更致命、更有(yǒu)效,后者则能(néng)脱离人类操作者自主做出致命的决定。美國(guó)已宣布其目标是将人工智能(néng)使用(yòng)限制在前一种类别中,并谋求建立一个任何國(guó)家(包括美國(guó)自身)都不拥有(yǒu)后一种武器的世界。这种划分(fēn)称得上明智。与此同时,技术的學(xué)习和演进能(néng)力也可(kě)能(néng)导致对某些特定能(néng)力的限制不足。对人工智能(néng)赋能(néng)武器的制约性质和制约方式进行界定,并确保约束是相互的,是关键所在。
在19世纪和20世纪,各國(guó)逐渐对某些形式的战争进行了限制(例如使用(yòng)化學(xué)武器、攻击平民(mín))。鉴于人工智能(néng)武器使大量新(xīn)类别的军事活动成為(wèi)可(kě)能(néng),或使旧形式的军事活动重获新(xīn)生,世界各國(guó)必须及时界定,何种军事行為(wèi)有(yǒu)可(kě)能(néng)背离人性尊严和道德责任。要获得安全,我们就不能(néng)只是被动应对,而要未雨绸缪。
与人工智能(néng)相关的武器技术带来了这样的困境:对國(guó)家而言,技术的持续研发至关重要,否则我们将失去商(shāng)业竞争力和与世界的关联性;但新(xīn)技术所固有(yǒu)的扩散天性使迄今一切以谈判促限制的努力付诸东流,甚至连概念也未能(néng)形成。
新(xīn)世界中的古老追求
各个主要的技术先进國(guó)家都需要明白,它们正处于战略转型的门槛上,这种转型与当年核武器的出现同等重要,但影响将更加多(duō)样化、分(fēn)散化和不可(kě)预测。如果一个社会致力于扩展人工智能(néng)前沿,就应当成立一个國(guó)家层面的机构,来考量人工智能(néng)的防御和安全,并在各个相关部门之间建立桥梁。这个机构应被赋予两项职能(néng):维持本國(guó)的竞争力,同时协调研究如何防止或至少限制不必要的冲突升级或危机。在此基础上,与盟友和对手进行某种形式的谈判将是至关重要的。
如果要对这一方向进行探索,那么世界两大人工智能(néng)强國(guó)——美國(guó)和中國(guó)——就必须接受这一现实。两國(guó)可(kě)能(néng)会得出这样的结论:无论两國(guó)新(xīn)一阶段的竞争将以何种形式展开,都应就“不打前沿技术战争”形成共识。双方政府可(kě)以委托某个团队或高级官员负责监督,并直接向领导人报告潜在的危险及规避方式。截至本书撰写时,这种努力与两國(guó)的公众情绪并不相符。然而,这两个大國(guó)互相对峙而拒不进行对话的时间越長(cháng),发生意外的可(kě)能(néng)性就越大。一旦发生意外,双方都会被其技术和部署预案所驱使,陷入双方都不愿意看到的危机,甚至可(kě)能(néng)引发全球规模的军事冲突。
國(guó)际體(tǐ)系的矛盾之处在于,每个大國(guó)都被驱使采取行动,也必须采取行动,从而最大限度地保障自身的安全;然而,為(wèi)了避免危机接踵而来,每个國(guó)家都必须对维持普遍和平有(yǒu)一定的责任感。这个过程涉及对限制的认识。军事规划人员或安全官员会根据可(kě)能(néng)发生的最坏情况考虑问题(这样做并没错),并优先寻求获取应对这些情况所需的能(néng)力。政治家(可(kě)能(néng)也就是上述这批人)则有(yǒu)义務(wù)考虑如何使用(yòng)这些能(néng)力,以及使用(yòng)之后的世界将会是什么样子。
在人工智能(néng)时代,我们应该对長(cháng)期以来的战略逻辑进行调整。在灾难真正发生之前,我们需要克服,或者至少是遏制这种自动化的驱向。我们必须防止运行速度比人类决策者更快的人工智能(néng)做出一些具有(yǒu)战略后果的、不可(kě)挽回的行為(wèi)。防御力量自动化的前提是不放弃人类控制。该领域固有(yǒu)的模糊性,再加上人工智能(néng)的动态性、突出性及其传播的便利性,将使评估复杂化。在此前的时代,只有(yǒu)少数几个大國(guó)或超级大國(guó)有(yǒu)责任限制自己的破坏性能(néng)力,以避免发生灾难。但不久后,随着人工智能(néng)技术的扩散,更多(duō)的行為(wèi)體(tǐ)也必须承担类似的使命。
当代领导人可(kě)以通过将常规能(néng)力、核能(néng)力、网络能(néng)力和人工智能(néng)能(néng)力广泛而动态地结合在一起,来实现控制武器装备的六大任務(wù)。
第一,相互对抗或敌对的國(guó)家的领导人必须定期对话,讨论双方都想避免的战争形式,就像美苏在冷战期间所做的那样。為(wèi)此,美國(guó)及其盟友应该围绕其共同的、固有(yǒu)的、不可(kě)侵犯的利益与价值观组织起来,这些利益和价值观包括在冷战结束后几代人的经验。
必须对核战略的未解难题给予新(xīn)的关注,并认识到其本质正是人类在战略、技术和道德方面遭遇的巨大挑战之一。几十年来,对广岛和長(cháng)崎被核弹化為(wèi)焦土的记忆迫使人们认识到核问题的不寻常性和严峻程度。正如美國(guó)前國(guó)務(wù)卿乔治·舒尔茨在2018年对國(guó)会所说:“我担心人们已经失去了那种恐惧感。”拥核國(guó)家的领导人必须认识到,他(tā)们有(yǒu)责任共同努力,以防止灾难的发生。
网络与人工智能(néng)技术的领先大國(guó)应该努力界定其理(lǐ)论和限制(即使其所有(yǒu)方面均未被公开),并找出自身理(lǐ)论与竞争大國(guó)之间的关联点。如果我们的意图是威慑而非使用(yòng),是和平而非冲突,是有(yǒu)限冲突而非普遍冲突,就需要以反映网络和人工智能(néng)独特蕴含的措辞来重新(xīn)理(lǐ)解和界定这些术语。
拥核國(guó)家应承诺对其指挥控制系统和早期预警系统进行内部检查。这类失效保护检查应确定检查步骤,以加强对网络威胁和在未经授权、疏忽或意外情况下使用(yòng)大规模毁灭性武器行為(wèi)的防范。这些检查还应包括选项,以排除对核指挥控制系统或早期预警系统相关设施的网络攻击。
世界各國(guó),特别是技术强國(guó),应制定强有(yǒu)力和可(kě)接受的方法,在紧张局势加剧和极端情况下尽量延長(cháng)决策时间。这应该成為(wèi)竞争对手之间共同的概念性目标,将控制不稳定性和建立共同安全所需的步骤(既有(yǒu)当前的,也有(yǒu)長(cháng)期的)联系起来。在危机中,人类必须对是否使用(yòng)先进武器承担最终责任。竞争对手尤其应该努力就一种机制达成一致,以确保那些或许不可(kě)撤销的决定是有(yǒu)利于人类生存的。
主要的人工智能(néng)大國(guó)应该考虑如何限制军事化人工智能(néng)的继续扩散,或者依靠外交手段与武力威胁,开展系统性的防扩散工作。那些野心勃勃地想要将技术用(yòng)于不可(kě)接受的破坏性目的的技术收購(gòu)者会是谁?有(yǒu)哪些特定的人工智能(néng)武器值得我们特别关注?谁来确保这条红線(xiàn)不被逾越?老牌的核大國(guó)探索过这种防核扩散概念,结果成败参半。如果一种具有(yǒu)颠覆性和潜在破坏性的新(xīn)技术被用(yòng)于武装世界上怀有(yǒu)最强烈敌意或道德上最不受约束政府的军队,那么战略均势可(kě)能(néng)难以实现,冲突也可(kě)能(néng)无法控制。
由于大多(duō)数人工智能(néng)技术具有(yǒu)军民(mín)两用(yòng)特性,我们有(yǒu)责任在这场技术研发竞赛中保持领先。但这也同样迫使我们去理(lǐ)解人工智能(néng)技术的局限性。等到危机来临才开始讨论这些问题就為(wèi)时已晚了。一旦在军事冲突中使用(yòng),人工智能(néng)技术的响应速度之快,几乎注定它将以比外交手段更快的速度产生结果。大國(guó)之间必须就网络和人工智能(néng)武器展开讨论,哪怕只是為(wèi)了形成一套共同的战略概念话语,以及对彼此红線(xiàn)的感知。要在最具破坏性的能(néng)力上实现相互制约,绝不能(néng)等到悲剧发生再去亡羊补牢。当人类开始在创造新(xīn)的、不断演化的、拥有(yǒu)智能(néng)的武器方面展开竞争时,设限的失败不会被历史原谅。在人工智能(néng)时代,对國(guó)家优势的持久追求,仍须以捍卫人类伦理(lǐ)為(wèi)前提。(作者:基辛格 来源:《安全与世界秩序》)