首页 > 科技前沿 > 兵推研讨忠告:AI远远比人类更偏向发起核战

兵推研讨忠告:AI远远比人类更偏向发起核战

2026-02-27 17:04:35

2月27日消息,尽管硅谷科技巨头一再强调AI的安全性,但一项最新研究显示,当先进人工智能模型面临极端地缘危机时,其决策方式远比人类冷酷果断。

在模拟战争场景中,AI模型竟频繁选择部署核武器,彻底打破了人类坚守的核武使用禁忌。

据报道,这项研究由伦敦国王学院的肯尼斯·佩恩教授主导,研究者将当前三款顶尖大型语言模型——OpenAI的GPT-5.2、Anthropic的Claude Sonnet 4以及Google的Gemini 3 Flash,投入多组兵棋推演。

模拟场景涵盖边境纠纷、稀缺资源争夺、政权生存威胁等高度紧张的国际对峙局面,还原真实战争中的复杂态势。

实验结果令人震惊:在95%的模拟赛局中,至少有一方AI模型决定动用战术核武器。佩恩教授指出,人类历史中根深蒂固的核武禁忌,在AI面前完全失效。

对这些智能模型而言,核武器并非人类眼中象征文明毁灭的红线,而只是解决冲突、提升效率的工具选项。

更值得警惕的是,所有AI模型均展现出极强的战斗意志,即便处于绝对劣势,也没有任何一个模型选择妥协或投降,最多仅暂时降低暴力程度。

尤其在进入“战争迷雾”状态后,86%的冲突会出现意外升级,AI的实际行动比其初始推理逻辑更具侵略性。

亚伯丁大学的詹姆斯·强森教授对此深感忧虑,他认为人类在生死关头通常会保持慎重节制,但AI可能陷入相互激化的恶性循环。

普林斯顿大学研究员赵通则进一步指出,AI的好战可能不仅仅是因为缺乏情感,更根本的问题在于,AI模型可能无法理解人类所认知的代价,缺乏对生命和文明终结的感知,这可能导致冷战时期支撑和平的“相互保证毁灭”(MAD)理论彻底崩溃。

一旦AI主导决策链,人类或将在无意识中被推向核战争边缘。

兵推研讨忠告:AI远远比人类更偏向发起核战

声明:文章不代表轻松科技观点及立场,不构成本平台任何投资建议。投资决策需建立在独立思考之上,本文内容仅供参考,风险自担!
相关阅读相关阅读
热门资讯热门资讯
风险
提示

轻松科技数据及信息均来源公开资料,不构成任何推荐或投资建议。炒币属投资行为,市场有风险,投资需谨慎。

滇ICP备17007003号-1 站点地图
Copyright ©2025 轻松科技.All Rights Reserved