置身事外:使用自动化核武器系统有多危险?
报告探讨了自动化核武器系统在国际政治中的潜在影响,尤其是其对核威慑和胁迫有效性的作用。核心问题是:核武器是否可以用于胁迫?如果是,哪些因素可以提高核威胁的可信度和有效性?
核威慑理论长期以来是国际关系研究的重要议题。冷战时期,苏联曾开发过一种半自动化的核武器系统,该系统能够在检测到核攻击后自动启动核反击。如今,人工智能(AI)的发展使得军事系统的自动化成为可能。随着俄罗斯、朝鲜等国在乌克兰战争和其他冲突中频繁发出核威胁,以及美国前总统特朗普也曾暗示对朝鲜使用核武器,核武器在胁迫中的作用再次引发关注。
作者基于托马斯·谢林(Thomas Schelling)的“边缘政策”理论,提出一个核心观点:通过减少人类对核武器使用的控制,自动化系统可以更有效地传递决心,从而提高核威胁的可信度。这种机制类似于“把方向盘扔出车窗外”的策略,在博弈论中被用来展示不可逆转的决心。
为了验证这一假设,作者进行了三项预注册的调查实验:
- 研究一 :针对800名英国公众样本,模拟2030年俄罗斯入侵爱沙尼亚的情境。
- 研究二 :针对1,060名英国公众样本,调整了部分措辞以测试结果的稳健性。
- 研究三 :针对117名英国国会议员(MPs),评估精英阶层的反应。
每项研究都设置了三种情境:
- 基线条件 :模糊的核威胁(如“早期预警雷达系统将监测北约行动”)。
- 非自动化核威胁 :明确表示将使用核武器,但由人类决策。
- 自动化核威胁 :明确表示核武器将由人工智能系统自动发射。
主要发现
- 显性核威胁的优势 :
- 显性的核威胁(无论是通过自动化还是非自动化手段)比模糊的核威胁更具可信度和有效性。
- 公众和精英普遍认为,当威胁具体且明确时,核打击的可能性更高,因此更倾向于避免挑衅行为。
- 自动化核威胁的优势 :
- 自动化核威胁被认为比非自动化核威胁更具可信度和有效性,因为计算机不会因理性计算而犹豫不决。
- 例如,在研究一中,56%的受访者相信自动化核威胁会实际执行,而只有35%的人相信模糊威胁。
- 负面后果 :
- 自动化核威胁虽然提高了可信度,但也增加了意外使用核武器的风险,导致公众对核战争的担忧上升。
- 此外,自动化核威胁还可能引发安全困境,增加目标国家对军费开支的支持,并降低对核裁军的支持。
- 公众与精英的差异 :
- 英国国会议员普遍比公众更不相信自动化核威胁的实际执行可能性,但他们仍然表现出对威胁的更大敏感性。
- 尽管如此,议员们也显示出对自动化系统的担忧,尤其是在涉及意外使用风险方面。
这项研究推动了关于核武器是否有助于胁迫的争论,并指出:
- 自动化是一种技术工具 ,而明确性是一种修辞工具 ,两者都可以增强核威胁的可信度。
- 尽管自动化核系统可能具有稳定作用,但它们也可能被用于高度不稳定的方式,如进攻性和修正主义的胁迫努力。
虽然研究发现自动化核系统在某些情况下可以增强核威胁的有效性,但这并不意味着国家应该采用这些系统。这样做可能会增加核武器使用的风险,并加剧危险的安全困境。相反,各国应准备应对对手可能考虑自动化核指挥与控制的情况。未来的研究可以探索如何通过国际协议限制AI和自动化在核指挥与控制系统中的使用。
了解更多:
为创新充能 1元 查看完整内容!立即支付