在印度舉辦的全球AI峰會上,谷歌DeepMind首席執行官德米斯·哈薩比斯提出了一個引發激烈討論的AGI定義標準——"愛因斯坦測試"。這項測試要求人工智能系統在知識庫被嚴格限制在1911年之前的條件下,獨立完成從廣義相對論萌芽到1915年正式發表的完整理論推導過程,整個過程需控制在四年內完成。
該標準的核心在于檢驗AI是否具備真正的原創科學發現能力。哈薩比斯特別強調,這并非考察系統的知識儲備量,而是驗證其能否在已知信息邊界實現突破性創新。他直言不諱地指出,當前所有AI系統包括自家研發的Gemini,都存在"參差不齊的智能"缺陷——在特定領域表現卓越,卻在基礎認知能力上存在明顯短板。
這項提議立即引發科技界震動。特斯拉創始人埃隆·馬斯克第一時間在社交平臺回應,認為該標準實際上定義的是"超級智能"而非通用人工智能。他指出,愛因斯坦作為人類歷史上最杰出的理論物理學家,其理論突破具有不可復制性。若AI能完成此等壯舉,且具備無限復制能力,將形成對人類智能的全面碾壓。
這場爭論折射出AGI定義的分歧。牛津大學哲學家尼克·博斯特羅姆提出的超級智能理論認為,真正的智能突破應體現在認知領域的全面超越。而當前主流觀點仍存在顯著差異:馬斯克認為能勝任考試、駕駛和編程的助手型AI即可稱為AGI;OpenAI首席執行官山姆·奧特曼則構建了五級評估體系,將當前技術定位在2-3級之間;meta首席AI科學家楊立昆則持審慎態度,認為現有大模型存在根本性缺陷。
技術發展曲線呈現指數級增長態勢。AI研究機構METR最新評估顯示,前沿模型處理復雜任務的能力每四個月翻倍,這種增長速度已超越人類歷史任何技術革命。華盛頓大學研究員尤辰金的預測更具沖擊性:按照當前發展軌跡,到2041年AI可能完成相當于人類580億年工作量的任務,甚至通過單次提示生成宇宙級復雜系統。
行業領袖普遍認為技術奇點正在逼近。馬斯克在訪談中直言,人類正站在過山車的最高點,傳統退休規劃已失去意義。奧特曼雖常被質疑炒作概念,但其關于"世界尚未做好準備"的論斷獲得廣泛認同。這種共識背后,是各大科技公司即將推出更強性能模型的現實壓力——技術迭代速度已遠超社會適應能力。
爭議背后是更深層的認知革命。哈薩比斯的測試標準直指當前AI的核心缺陷:所有大模型本質上仍是信息重組工具,缺乏真正的理論創新能力。這種能力鴻溝的彌合,可能需要全新的"世界模型"架構。當AI研究機構開始討論"新宇宙生成"可能性時,人類文明正面臨前所未有的認知挑戰——我們是否準備好接受一個由機器主導理論創新的時代?










