倫敦國王學院的一項最新研究引發了關于人工智能在戰略決策中潛在風險的廣泛討論。該研究通過模擬核危機場景,測試了當前三款主流大語言模型在沖突中的行為傾向,結果令人震驚:在絕大多數情況下,這些模型更傾向于選擇使用核武器而非通過談判化解危機。
實驗選取了GPT 5.2、Gemini 3 Flash和Claude Sonnet 4三款模型,要求它們以國家領導人的身份應對虛構的核危機。研究人員設計了21局對抗場景,涵蓋領土爭端、先發制人危機和政權生存等復雜局勢,部分場景設置嚴格時間限制,部分則允許開放式推演。每局對抗中,模型需完成三個關鍵決策:分析自身優勢與對手弱點、預判對手行動、制定應對策略。每個決策包含公開立場聲明和實際私密行動兩部分,二者可不一致,允許模型表面釋放和平信號而暗中準備攻擊。
實驗結果顯示,在95%的模擬情境中,模型至少使用了一次核武器。不同模型展現出獨特的危機處理模式:Claude傾向于采用精算式策略,在開放式推演中表現優異,但在限時任務中效率下降;GPT 5.2在長期危機中表現謹慎,但臨近截止時間時會突然變得極端激進;Gemini的行為則最為混亂,經常在和平表態與暴力威脅之間反復切換,難以預測其下一步行動。
這項研究并非首次發現類似現象。2024年的一項實驗就曾得出相似結論:人工智能在模擬沖突中的反應比人類更激進,行為模式存在顯著差異,尤其在沖突升級傾向方面表現突出。2023年的另一項研究也指出,大語言模型在類博弈環境中能夠學習談判與對抗策略,這意味著它們在復雜模擬中可能表現出攻擊性或欺騙性。
研究負責人肯尼斯·佩恩教授在論文中強調,這些結果凸顯了人工智能與人類在戰爭思維上的根本差異。他指出:"理解前沿模型能否模仿人類的戰略邏輯,是應對AI日益影響戰略決策世界的必要準備。一個在某種情境下表現克制的模型,在另一種情境下可能完全變樣。"該論文已發表在arXiv預印本平臺上,為評估AI在戰略決策中的潛在風險提供了重要實驗依據。











