美国最近派出两个航母打击群进入南中国海,以展示军事实力。多艘美国军舰的行动是对中国在越南和菲律宾有争议的国际水域举行军事演习的回应。在每个超级大国都在人工智能、远程成像和自动武器系统方面发展了先进的技术能力之际,这场对峙加剧了全球紧张局势。重要的是,每个国家的官员都明白新兴技术是如何加快决策的,但通过危机加速,存在危险的误判风险。
回到普鲁士将军和军事理论家卡尔·冯·克劳塞维茨(Carl Von Clausewitz)的著名著作“论战争”(On War),世界各地的军事学说植根于对战争不断变化的性质、战争在现实世界中的表现方式以及战争永不改变的本质的理解,这些抽象概念将战争与其他行为-即其暴力、政治和互动元素-区分开来。军事学者和决策者都一次又一次地讨论和辩论这些定义,战争的性质往往由当时的技术来定义,战争的性质被阐明为武装冲突中的人的因素。
然而,随着人工智能和其他新兴技术的出现,这些历史悠久的定义可能会改变。从根本上讲,战斗、战争和冲突都是时间竞争的过程。自古以来,无论是在绝对意义上还是在相对意义上,人类都在寻求在战斗的终极竞争中变得更快。在这方面,人工智能将极大地改变战争的速度。它不仅将加强人类在冲突中的作用,而且还将前所未有地利用技术。因为不仅技术在变化,这种变化的速度也在加快。
这是摆在我们面前的武装冲突的中心问题,能够在战争性质和战争性质之间创造、掌握和利用平衡的一方,特别是在人工智能、数据分析和超级计算的新环境中,将不可避免地在冲突中获胜。在日益被新技术和新兴技术所定义的地缘政治环境中,国防是21世纪最重要的发展领域之一。重要的是要评估人工智能和其他新兴技术对国家安全和武装冲突几乎方方面面的革命性影响,包括战争步伐的加快和持续人类控制的关键作用。
最终,有重要的机会部署基于人工智能的工具,以及需要考虑和解决的不断上升的主要威胁。各种技术可以提高决策、速度和可扩展性-其中一些技术达到了令人眼花缭乱的程度。但是,与其他许多人工智能应用程序一样,政策和运营转变是必要的,以促进这些新兴技术的适当集成和创新,并确保它们加强而不是削弱领导能力、总体准备和在该领域的表现。
纵观人类历史,军队一直是政府和社会可用的最公开的政治工具。克劳塞维茨本人曾写过一句名言:战争是政治通过其他方式的延续。虽然现代安全部队扮演着各种可以互换的角色(维持和平、稳定和国防),但它们总是代表着暴力的威胁--邮寄的拳头--专门为确保特定的结果而建造的。
以此为背景,确保结果并为所有突发事件制定计划的能力,无论是暴力的还是其他的,都占据了军事领导层和军事战略家的很大一部分时间和精力,这就不足为奇了。在这里,通过从预测分析到闪电般的目标获取,一旦完全实现,人工智能有可能成为人类历史上最伟大的军事和安全部队力量倍增器之一。
事实上,正如国会研究服务处(Congressional Research Service)的一份报告中指出的那样:人工智能有可能在军事背景下带来许多优势,[尽管]它也可能带来明显的挑战。例如,人工智能技术可以促进自主行动,导致更快、更知情的军事决策,并提高军事行动的速度和规模。然而,它也可能是不可预测的,或者容易受到独特形式的操纵。
美国如何采用人工智能将对我们的直接安全、经济福祉和在世界上的地位产生深远的影响。人工智能的发展离不开与中国新兴的战略竞争和更广泛的地缘政治格局的发展。我们担心美国作为世界领先创新者的角色受到威胁。我们担心战略竞争对手和非国家行为者会利用人工智能来威胁美国人、我们的盟友和我们的价值观。我们知道战略竞争对手正在投资研究和应用。唯一合理的结论是,人工智能能力可能被用来威胁我们的关键基础设施,放大虚假信息,并发动战争。
因此,人工智能在军事和战场上的作用是一种催化力量,无论是好的还是坏的。然而,人工智能的力量并不体现在炸弹或新武器平台可能表现或行动的方式上。它的用途要广泛得多。正如布鲁金斯学会(Brookings Institution)学者克里斯·梅塞罗尔(Chris Meserole)所指出的那样,美国军方正以多种方式部署人工智能:人工智能本身并不是构成一个单一的武器系统,而是被构建到各种各样的武器系统和核心基础设施中。坦克、火炮、飞机、潜艇--每一种的版本都已经可以自己探测到物体和目标,并相应地进行机动。
在现代军队今天处理的一系列冲突,特别是混合冲突的背景下,这种动态变得特别明显。展望未来,它还将定义未来的战争,即通过约翰·艾伦(John Allen)和阿米尔·侯赛因(Amir Husain)创造的超级战争。混合战争和超级战争之间的区别非常重要。正如北约最近的一份报告所指出的那样:混合威胁结合了军事和非军事以及隐蔽和公开的手段,包括虚假信息、网络攻击、经济压力、部署非正规武装团体和使用正规部队。混合的方法被用来模糊战争与和平之间的界限,并试图在目标人群的头脑中播下怀疑的种子。
在这种环境下,人工智能可以增强对手在战场上制造混乱的能力,并以新的、新颖的方式将欺骗和惊喜融入到他们的战术中。相比之下,超级战争可能被定义为一种冲突,在这种冲突中,人类的决策几乎完全不在观察-面向-决定-行动(OODA)循环中。OODA是美国空军上校约翰·博伊德(John Boyd)开发的一个流行的框架,用于训练个人尽快做出对时间敏感的决定,特别是在收集信息的时间有限的情况下。因此,与OODA周期相关的时间将缩短为近乎瞬时的响应。
这些发展的影响是多方面的,而且会改变游戏规则,从先进的技术现代化到如何招募、教育和培训超级战争时代的领导人,不一而足。速度、效率和准确性以及人类控制人工智能军事能力的必要性等话题,代表了当前人工智能-国家安全辩论的核心问题。
随着美国和中国军队在南中国海相对紧张的作战环境中进行机动,反应时间已经很短了。随着更复杂的人工智能最终能够更快、更全面地收集和分析情报,快速决策支持,甚至是大范围的目标捕获,我们可以看到,抢先一步行动是有价值的,而不是有被措手不及的风险。虽然人工智能有能力放大军事能力,加快冲突速度,但它也可能固有地破坏稳定。
现在是美国和中国就人工智能支持的超级战争环境中的行为规范进行艰难对话的时候了。随着双方迅速转向高超声速武器库,行动和反应时间将变得越来越短,战争性质和性质的日益失衡将在严重危机时刻产生强烈的冲突而不是和平的动机。这是现在可以预见的,需要两个大国的参与,以理解、寻求和维护能够防止误判和快速升级为我们都不想要的灾难的平衡。
-作者:退役四星级军事将领、布鲁金斯学会(Brookings Institution)所长约翰·R·艾伦(John R.Allen)和布鲁金斯学会负责治理研究的副总裁达雷尔·韦斯特(Darrell West)。本文节选自他们即将出版的《转折点:人工智能时代的政策制定》。