3月31日消息,近日,DeepMind創始人德米斯?哈薩比斯坦言,其研發的超級人工智能存在滅絕人類的風險,而當前AI發展競賽已進入無法停止的狀態,人類難以通過外部治理手段有效管控。
他徹底放棄此前依賴制度、倫理委員會約束AI的構想,承認治理結構在關鍵決策中難以發揮作用,只能依靠自身爭取話語權來把控AI安全走向。
哈薩比斯一直是AI安全的堅定倡導者,早年曾設想通過獨立監督、秘密研發等方式打造絕對安全的超級智能。
2014年將DeepMind出售給谷歌時,還明確要求保留AI安全獨立決策權、設立外部監督委員會并禁止軍事應用。
但這些安全構想接連落空,馬斯克參與相關集會后轉而創立OpenAI,打破了單一主體管控AI的設想,后續與谷歌的治理權談判也以失敗告終。
2022年ChatGPT的出現,徹底打亂了AI研發節奏,谷歌陷入競爭焦慮,DeepMind與谷歌大腦合并,安全規范讓位于研發速度,此前的安全防線逐步失效。
哈薩比斯由此認清現實,在商業競爭與技術競賽壓力下,依附于商業巨頭的非營利治理機制難以存續。
如今哈薩比斯轉變思路,核心主張是讓自己占據核心決策位置,憑借對AI風險的敬畏之心,在關鍵節點把控技術方向。
他一邊推進Gemini等模型研發,一邊堅守安全底線,試圖以個人影響力降低AI失控風險。
業內分析認為,這一轉變折射出全球AI競賽的殘酷現狀,統一治理難以實現,AI安全窗口持續收窄,人類正面臨關乎文明存續的巨大挑戰。








