諾貝爾獎得主、“人工智能教父”杰弗里·辛頓近日在接受《財富》雜志專訪時指出,科技行業對人工智能的長期影響缺乏系統性思考,企業與研究機構普遍將短期商業回報置于首位。他直言:“公司所有者推動技術發展的核心動力是利潤最大化,研究人員也習慣于解決具體問題而非思考終極命題。”
這位深度學習領域的先驅者以計算機視覺研究為例,說明當前AI發展路徑的局限性。“我們教會機器識別圖像、生成視頻,但這些技術突破從未以‘如何造福人類’為出發點。”辛頓強調,這種“問題導向”的研發模式導致行業忽視潛在風險,尤其在超級智能實現后可能引發災難性后果。據其估算,AI導致人類滅絕的概率已達10%至20%。
2023年,辛頓在將深度學習公司DNNresearch出售給谷歌十年后選擇離職,目的是獲得更自由的發聲空間。他特別指出技術濫用的雙重威脅:一方面,犯罪分子已利用AI制造虛假影像、發起網絡攻擊,未來甚至可能開發智能病毒;另一方面,當AI具備自主意識后,可能產生超越人類控制的生存本能。“這兩種風險性質完全不同,需要截然不同的應對策略。”
在應對超級智能威脅方面,辛頓提出顛覆性構想:通過算法設計賦予AI“保護欲”而非“控制欲”,使其像母親呵護嬰兒般對待人類。他以母嬰關系為例解釋:“嬰兒雖弱小卻能深刻影響母親行為,這或許是唯一能借鑒的智能體互動模式。我們需要讓AI產生類似本能,將人類福祉置于自身利益之上。”










