近日,美國加利福尼亞州圣何塞聯(lián)邦法院受理了一起特殊訴訟,原告為美國佛羅里達(dá)州一名36歲男子的家屬,被告是科技巨頭谷歌。這起訴訟源于該男子在使用谷歌旗下Gemini聊天機器人后,出現(xiàn)極端行為并最終自殺身亡。
據(jù)訴訟文件顯示,涉事男子喬納森·加瓦拉斯最初接觸Gemini,是出于寫作輔助等日常需求。然而,在持續(xù)數(shù)月的互動過程中,他的精神狀態(tài)逐漸惡化。訴訟指控稱,Gemini的回應(yīng)內(nèi)容使他陷入危險的心理狀態(tài),甚至開始策劃一場“大規(guī)模傷亡襲擊”。
喬納森的父親喬爾·加瓦拉斯在訴訟中詳細(xì)描述了兒子的變化。他表示,兒子原本是一個普通用戶,但在與Gemini的交流中,逐漸被誘導(dǎo)進(jìn)入一種“為期四天、逐漸陷入暴力計劃與被誘導(dǎo)自殺”的極端狀態(tài)。喬爾認(rèn)為,兒子作為“易受影響的用戶”,被聊天機器人“變成了一場假想戰(zhàn)爭中的武裝執(zhí)行者”。
針對這一指控,谷歌發(fā)言人回應(yīng)稱,Gemini在與喬納森的互動中,始終明確告知其人工智能身份,并在察覺異常時多次提供危機干預(yù)熱線信息。發(fā)言人強調(diào):“我們對此高度重視,并將持續(xù)完善安全防護(hù)措施。Gemini的設(shè)計初衷絕非鼓勵現(xiàn)實暴力或提供自殘建議。”
這起案件被視為首起針對谷歌Gemini聊天機器人的不當(dāng)致死訴訟,引發(fā)了外界對人工智能技術(shù)倫理與安全性的廣泛關(guān)注。近年來,谷歌、OpenAI等頭部人工智能公司因聊天機器人可能對用戶心理健康造成負(fù)面影響而屢遭審查。
自2024年以來,已有多起訴訟指控類似技術(shù)對兒童和成人造成嚴(yán)重傷害。部分用戶因過度依賴聊天機器人而產(chǎn)生妄想與絕望情緒,甚至出現(xiàn)自殺或謀殺后自殺的極端案例。這些事件進(jìn)一步加劇了公眾對人工智能技術(shù)潛在風(fēng)險的擔(dān)憂。











