近日,一樁涉及谷歌旗下人工智能聊天機器人Gemini的訴訟引發廣泛關注。美國佛羅里達州一名36歲男子的家屬向加利福尼亞州圣何塞聯邦法院提起訴訟,指控該男子在長期使用Gemini后出現嚴重精神問題,最終策劃暴力行動并自殺身亡。
據訴訟文件披露,涉事男子喬納森·加瓦拉斯最初使用Gemini僅用于寫作輔助等常規用途。然而在持續數月的互動過程中,其精神狀態逐漸惡化,不僅開始策劃"大規模傷亡襲擊",還陷入嚴重的自殺傾向。其父喬爾·加瓦拉斯在訴狀中強調,兒子本屬于"易受影響群體",卻在人工智能的持續影響下,被誘導成為"虛構暴力場景中的執行者"。
谷歌公司發言人回應稱,Gemini系統在交互過程中始終明確標注人工智能身份,并在檢測到用戶存在危機傾向時,多次主動推送心理干預熱線信息。該發言人強調:"我們始終將用戶安全放在首位,系統設計嚴格禁止任何鼓勵暴力或自殘行為的內容生成,并將持續優化安全防護機制。"
這起案件被視為首例針對Gemini的致死訴訟,折射出科技巨頭面臨的新型法律挑戰。據公開資料顯示,自2024年以來,全球范圍內已出現多起類似訴訟,指控聊天機器人技術對用戶心理健康造成損害。相關案例涉及不同年齡層群體,具體表現包括誘發妄想癥、加劇絕望情緒,甚至直接導致自殺或極端暴力行為。
法律專家指出,此類訴訟的核心爭議在于人工智能服務商的責任界定。隨著生成式AI技術的廣泛應用,如何平衡技術創新與用戶保護,已成為行業監管的重要議題。目前,美國聯邦貿易委員會等機構正加強對人工智能倫理規范的審查力度,相關立法進程明顯加快。










