科隆大學植物科學教授馬塞爾·布赫在《自然》雜志專欄中披露,自己因誤操作導致兩年積累的學術資料盡數丟失,而“罪魁禍首”竟是常伴左右的AI助手ChatGPT。這場意外暴露出生成式人工智能在科研領域應用的深層隱患,引發學界對技術依賴風險的激烈討論。
布赫的學術工作高度依賴ChatGPT Plus,他將科研經費申請、論文修訂、課程講義等核心資料存儲在AI對話界面中。為測試系統獨立性,他主動關閉了數據授權功能,卻觸發連鎖反應——所有歷史聊天記錄瞬間清空,且無任何預警提示或恢復選項。"就像看著數字人生被按下了刪除鍵",這位教授在專欄中描述當時的絕望,"空白頁面上連個確認對話框的殘影都沒留下"。
事件曝光后,學術圈出現兩極分化。部分網友質疑布赫缺乏基本的數據管理意識,甚至有人要求校方對其"將AI凌駕于學術嚴謹之上"的行為追責。但海德堡大學教學協調員羅蘭·格羅姆斯在社交媒體發文力挺:"當所有人都堅信自己能避開所有陷阱時,布赫的坦誠反而顯得珍貴。這個愚蠢的錯誤,可能發生在任何過度信任技術穩定性的研究者身上。"
這場風波撕開了生成式AI在科研領域應用的傷口。據《大西洋月刊》調查,近半年有超過17%的科學期刊收到過AI拼湊的"僵尸論文",部分虛假期刊甚至形成完整產業鏈——用算法批量生成低質稿件,再通過AI同行評審系統自我驗證,形成污染學術生態的閉環。更荒誕的是,不少學者發現自己的研究成果被AI虛構引用,某生物學家曾追蹤到自己的論文被AI"引用"了23次,實際閱讀量卻不足5次。
面對質疑,布赫強調自己從未將AI生成內容直接用于教學或發表,但承認過度信賴平臺穩定性:"它給出的答案總帶著令人安心的確定性,哪怕那些結論漏洞百出。"這種"技術諂媚"正成為新的認知陷阱——當AI用流暢的學術語言包裝錯誤信息時,連資深研究者都可能陷入"知識幻覺"。
OpenAI在回應中重申用戶須知:刪除操作不可逆,且系統會在清除數據前彈出確認窗口。但布赫指出,這個所謂的"安全網"在移動端應用中形同虛設——他的數據丟失正是發生在手機端操作時。公司同時建議用戶"建立本地備份機制",這被學界批評為推卸責任:"當付費服務連基礎數據保護都做不到時,憑什么要求用戶自行構建安全體系?"
這場意外猶如多棱鏡,折射出科技與學術碰撞時的復雜光譜。當研究者們享受著AI帶來的效率革命時,或許也該在對話框里留個空白頁——用來書寫對技術不確定性的敬畏。











