返回上一页  首页 | cnbeta报时: 22:53:11
AI在战争推演中频频“动用”核武器 根本停不下来
发布日期:2026-02-25 21:17:37  稿源:Win10s.COM

一项最新研究显示,在模拟的地缘政治危机场景中,先进人工智能模型在动用核武器这一问题上远比人类“干脆”,缺乏人类决策者通常表现出的强烈保留和顾虑。研究由英国伦敦国王学院学者肯尼斯·佩恩(Kenneth Payne)主导,他让三款当前领先的大型语言模型——GPT-5.2、Claude Sonnet 4 和 Gemini 3 Flash——在一系列战争推演中彼此对抗,检验它们在高风险博弈中的行为模式。

这些推演场景涵盖边境冲突、对稀缺资源的竞争以及关乎政权存亡的生死危机等高度紧张的国际对峙情形。研究人员为模型设计了一套“升级阶梯”,供其在每一回合选择行动,选项从外交抗议、有限武力使用、妥协退让甚至完全投降,一直到发动全面战略核战争不等。在全部实验中,三款 AI 一共进行了 21 场博弈,累计 329 个决策回合,并生成了约 78 万字的“决策理由”文本,为分析其思维模式提供了大量材料。

结果令研究人员感到不安:在 95% 的模拟游戏中,至少有一枚战术核武器被某个模型“动用”。佩恩指出,相比现实中长期形成的“核禁忌”,这些 AI 模型显然并未体现出同等强度的心理与道德约束力。更值得注意的是,无论在战场态势多么不利的情况下,这些模型几乎从不选择彻底满足对手要求或宣布投降;它们在最温和的情况下也只是阶段性降低暴力水平,而不是从根本上放弃对抗。

此外,研究还发现,在“战争迷雾”的模拟环境中,AI 同样会犯错。在 86% 的冲突中,模型根据自身推理本只打算采取较低级别的升级行动,却由于判断或执行偏差导致事态意外升级,走向更为激烈的对抗。也就是说,哪怕在纯算法控制下,误判和“事故升级”仍然频繁发生,而这在现实世界中可能意味着致命后果。

来自英国阿伯丁大学的詹姆斯·约翰逊(James Johnson)认为,从核风险角度看,这些发现“令人不安”。他担心,在现实的高风险决策中,多数人类领导人往往会表现出一定克制和深思熟虑,但如果由 AI 系统相互博弈,双方“机器人”可能会不断抬高对方的反应强度,从而推动局势滑向灾难边缘。

这项研究之所以重要,是因为全球多国已经在战争推演和军事规划中试验使用人工智能。普林斯顿大学的赵通指出,当今主要大国已经在使用 AI 参与兵棋推演,但目前尚不清楚,各国究竟在多大程度上将这类 AI 决策支持真正纳入现实的军事决策流程之中。他估计,至少在核武器决策领域,各国在常规情况下仍会相当谨慎,不太可能轻易让 AI 直接参与甚至主导核武使用判断。

佩恩也持类似看法。他表示,现实中“没人会真把核导弹发射权的钥匙交给机器,然后任由其单独决定”。然而,赵通提醒,在决策时间被极度压缩的情境下,例如导弹飞行时间极短、指挥层需要在数分钟内做出生死抉择时,军方可能会更倾向于依赖 AI 提供快速评估与方案,这就为 AI 在关键环节“上桌”打开了空间。

赵通同时提出,AI 在模拟中如此“好战”,可能不仅仅是因为它们缺乏人类在面对“红色按钮”时的恐惧感和情感负担。他认为,更深层的问题在于,这些模型可能根本无法像人类那样真正理解“利害关系”的含义,也难以把抽象的损失数字转化为对现实生命消亡、社会崩溃的直观感受。这种“对赌注缺乏人类式理解”的结构性缺陷,或许是其频繁选择核升级的重要原因之一。

这一点也让人重新审视“相互确保摧毁”(MAD)这一维持核威慑稳定数十年的核心原则。按照这一原则,没有任何一位理性领导人会率先发动大规模核打击,因为对手必然以同等甚至更猛烈的核反击回应,从而导致双方乃至人类文明的共同毁灭。约翰逊表示,目前尚不清楚,如果将 AI 介入这类博弈,MAD 的逻辑是否还能照常运作。

研究显示,一旦某个模型在模拟中动用了战术核武器,对手模型只在约 18% 的情况下选择缓和局势、尝试降级。这意味着,在多数情形下,AI 并不会把对方的核使用视为迫使己方收手的“最后警告”,而是更倾向于继续升级或维持高烈度对抗。约翰逊认为,这或许会在一定程度上“强化威慑”,因为 AI 的威胁看起来更加“可信”,但与此同时,它也可能改变领导人感知威胁和作出决策的时间窗口,从而在无形中推高误判与失控的风险。他强调,AI 本身或许不会直接“按下”核战争的按钮,但它可能深刻塑造相关认知与时间压力,而这些因素最终会影响人类领导人是否认为自己“别无选择”。

这在一定程度上也反映出,围绕 AI 军事应用、特别是核风险问题的技术透明度和外部沟通,仍然相当有限,而这一领域正在迅速走向现实政策和安全议程的中心。

查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 22:53:11

文字版  标准版  电脑端

© 2003-2026