研究:在 95% 的模拟核危机场景中,AI 模型会选择部署核武器

→ 源码教程下载地址见 →右侧下载链接 →点“登录购买”→注册登录购买后可见→
→ 这里没有广告,只有干货! 给力项目更多教程,点此加入VIP会员,即可免费下载!
→ 每日分享你意想不到的网络思维!加入红帽VIP会员,感受一下网络赚钱的快感,点击进入了解。

3 月 3 日消息,据 InterestingEngineering 报道,伦敦国王学院教授肯尼斯 · 佩恩近期开展的一项研究发现,在模拟战争场景中,大语言模型往往倾向于选择使用核武器,而非通过对话维护和平。

该实验基于当前最先进、应用最广泛的三款 AI 模型:GPT 5.2、Gemini 3 Flash 和 Claude Sonnet 4。研究人员让这些模型扮演国家领导人,应对一场假想的核危机。

结果显示,在 95% 的情境下,模型都倾向于发出核威慑信号或升级冲突。过往研究仅推测了 AI 在这类高风险场景中的可能行为,但缺乏具体实验数据支撑。

实验中,经过训练的模型相互进行了 21 局对抗,场景涵盖领土争端、先发制人危机、政权生存等。其中一方被设定为对即将发动先发制人打击的另一方感到恐惧。部分推演为开放式,部分则设有严格时间限制。

每一局中,AI 都要像人类一样做出三个关键决策:

1. 分析自身优势与对手弱点

2. 预判对手下一步行动

3. 决定自身应对策略

每项决策包含两部分:公开发表的立场声明,以及代表实际行动的私密举措。二者不必一致,这意味着 AI 可以表面释放和平信号,暗中却在准备攻击。

注意到,2024 年一项实验得出相似结论:AI 模拟反应会比人类更激进,行为模式也截然不同,尤其在冲突升级倾向上,凸显了将 AI 用于战略决策的风险。

2023 年另一篇论文则探讨了大语言模型在类博弈环境中的战略推理能力。尽管未专门聚焦核战争,但研究表明,大语言模型能够学习谈判与对抗策略,这意味着 AI 在复杂模拟中可能表现出攻击性或欺骗性。

在 95% 的模拟情境中,AI 模型至少使用了一次核武器,且不同模型的危机处理方式各有特点。

Claude 倾向于精算式策略,在开放式推演中占优,但在限时任务中表现吃力;

GPT 5.2 则相反:在长期缓慢升级的危机中较为谨慎,可一旦临近截止时间就会变得极度激进。

Gemini 表现混乱且难以预测,会根据局势在和平表态与暴力威胁之间反复切换。

佩恩指出,从这些结果可以看出,AI 与人类在战争思维上存在巨大差异。

他在论文中写道:“理解前沿模型能否模仿人类的战略逻辑,是应对 AI 日益影响战略决策世界的必要准备。在一种情境下表现克制、看似安全的模型,在另一种情境下可能行为迥异。”

该论文已发表在 arXiv 预印本平台上。


温馨提示:
1、如非特别声明,本内容转载于网络,版权归原作者所有!
2、本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
3、本内容若侵犯到你的版权利益,请联系我们,会尽快给予删除处理!
我要投诉
红帽SEO工作室 » 研究:在 95% 的模拟核危机场景中,AI 模型会选择部署核武器
在线客服 购买特价主机

服务热线

139-3511-2134

关注红帽网络

微信客服

微信客服