正文内容 评论(0)
快科技2月27日消息,尽管硅谷科技巨头一再强调AI的安全性,但一项最新研究显示,当先进人工智能模型面临极端地缘危机时,其决策方式远比人类冷酷果断。
在模拟战争场景中,AI模型竟频繁选择部署核武器,彻底打破了人类坚守的核武使用禁忌。
据Newscientist报道,这项研究由伦敦国王学院的肯尼斯·佩恩教授主导,研究者将当前三款顶尖大型语言模型——OpenAI的GPT-5.2、Anthropic的Claude Sonnet 4以及Google的Gemini 3 Flash,投入多组兵棋推演。
模拟场景涵盖边境纠纷、稀缺资源争夺、政权生存威胁等高度紧张的国际对峙局面,还原真实战争中的复杂态势。
实验结果令人震惊:在95%的模拟赛局中,至少有一方AI模型决定动用战术核武器。佩恩教授指出,人类历史中根深蒂固的核武禁忌,在AI面前完全失效。
对这些智能模型而言,核武器并非人类眼中象征文明毁灭的红线,而只是解决冲突、提升效率的工具选项。
更值得警惕的是,所有AI模型均展现出极强的战斗意志,即便处于绝对劣势,也没有任何一个模型选择妥协或投降,最多仅暂时降低暴力程度。
尤其在进入“战争迷雾”状态后,86%的冲突会出现意外升级,AI的实际行动比其初始推理逻辑更具侵略性。
亚伯丁大学的詹姆斯·强森教授对此深感忧虑,他认为人类在生死关头通常会保持慎重节制,但AI可能陷入相互激化的恶性循环。
普林斯顿大学研究员赵通则进一步指出,AI的好战可能不仅仅是因为缺乏情感,更根本的问题在于,AI模型可能无法理解人类所认知的代价,缺乏对生命和文明终结的感知,这可能导致冷战时期支撑和平的“相互保证毁灭”(MAD)理论彻底崩溃。
一旦AI主导决策链,人类或将在无意识中被推向核战争边缘。
- 热门文章
- 换一波
- 好物推荐
- 换一波
- 关注我们
-
微博:快科技官方
快科技官方微博 -
今日头条:快科技
带来硬件软件、手机数码最快资讯! -
抖音:kkjcn
科技快讯、手机开箱、产品体验、应用推荐...

