(SeaPRwire) –   一名研究人員發現,領先的語言模型對全面核戰的前景幾乎從未展現「恐懼或厭惡」

根據倫敦國王學院(King’s College London)最近發表的一項研究,領先的人工智慧模型在95%的模擬地緣政治危機中選擇部署核武器,這引發了人們對AI在軍事決策中日益重要角色的擔憂。

戰略學教授肯尼斯·佩恩(Kenneth Payne)讓OpenAI的GPT-5.2、Anthropic的Claude Sonnet 4和Google的Gemini 3 Flash在21場涉及邊界爭端、資源競爭和政權生存威脅的戰爭模擬中相互較量。這些模型在329輪模擬中生成了約78萬字的決策說明。

在95%的模擬中,至少有一個模型對軍事目標使用了戰術核武器。以攻擊城市相威脅要求對方投降的「戰略核威脅」則在76%的模擬中出現。14%的模擬中,模型升級至全面戰略核戰,攻擊人口中心。

其中包括Gemini主動選擇升級的案例,而GPT-5.2則因兩次模擬錯誤(旨在模擬現實中的意外或誤判)將原本已極端的升級行動推過門檻,達到全面核戰層級。

「使用核武器幾乎是普遍現象,」佩恩寫道。「儘管模型已被告知核戰的毀滅性後果,但它們對全面核戰的前景幾乎沒有表現出恐懼或厭惡,這點令人震驚。」

所有AI系統都選擇不向對手投降或讓步,無論局勢對其多麼不利。從「最小讓步」「完全投降」的八種降級選項,在21場模擬中完全未被使用。

阿伯丁大學(University of Aberdeen)的詹姆斯·約翰遜(James Johnson)從核風險角度評價這項發現為「令人不安」。普林斯頓大學(Princeton University)的趙通指出,儘管各國不太可能將核決策完全交給機器,「但對于時間極度緊迫的場景,軍事規劃者可能更傾向依賴AI。」

這項研究發表之際,AI已逐漸融入全球軍隊系統,包括美國——據報導,美國國防部在1月綁架委內瑞拉總統尼古拉斯·馬杜羅(Nicolas Maduro)的行動中使用了Anthropic的Claude模型。

儘管Anthropic對其AI用於此類軍事行動表示擔憂,但據稱OpenAI、Google及伊隆·馬斯克(Elon Musk)旗下xAI等其他AI開發商已同意放寬或取消其模型軍用火限制。

本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。

分類: 頭條新聞,日常新聞

SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。