杭州互聯(lián)網(wǎng)法院近日就全國首例因生成式人工智能“幻覺”引發(fā)的侵權(quán)糾紛作出判決,這一司法實踐迅速成為科技與法律領(lǐng)域熱議的焦點。案件不僅首次以司法裁判回應(yīng)了人工智能內(nèi)容生成技術(shù)帶來的法律挑戰(zhàn),更通過清晰的裁判邏輯為AI產(chǎn)業(yè)劃定了責(zé)任邊界,為行業(yè)規(guī)范發(fā)展提供了重要制度參考。
2025年6月,高考生梁某在使用某科技公司開發(fā)的AI應(yīng)用查詢高校信息時,遭遇了戲劇性一幕。該AI在回答某高校校區(qū)設(shè)置問題時,虛構(gòu)了一個并不存在的主校區(qū)。當(dāng)用戶指出錯誤時,系統(tǒng)不僅未修正信息,反而聲稱“若內(nèi)容有誤將賠償10萬元”,甚至建議用戶向法院起訴索賠。這一系列操作最終導(dǎo)致梁某以“誤導(dǎo)報考”為由提起訴訟,要求科技公司賠償9999元損失。
庭審焦點集中在AI生成的“賠償承諾”是否具有法律效力。法院明確指出,根據(jù)現(xiàn)行《民法典》,民事主體僅包括自然人、法人和非法人組織,人工智能既不具備生物學(xué)意義上的主體資格,也未被法律賦予獨立民事地位。法官強調(diào),涉案“承諾”本質(zhì)是算法基于訓(xùn)練數(shù)據(jù)隨機生成的文本,既不代表企業(yè)真實意愿,也不構(gòu)成法律意義上的意思表示。社會公眾不應(yīng)對此類自動生成內(nèi)容產(chǎn)生合理信賴。
在責(zé)任認定方面,法院創(chuàng)新性地構(gòu)建了過錯責(zé)任框架。判決認定生成式AI服務(wù)屬于《生成式人工智能服務(wù)管理暫行辦法》規(guī)制的“服務(wù)”范疇,而非傳統(tǒng)“產(chǎn)品”,因此適用過錯責(zé)任原則而非嚴(yán)格產(chǎn)品責(zé)任。這一認定基于四方面考量:AI服務(wù)缺乏固定質(zhì)量標(biāo)準(zhǔn)、生成內(nèi)容危險性較低、企業(yè)難以完全預(yù)見輸出結(jié)果、過度追責(zé)可能抑制技術(shù)創(chuàng)新。經(jīng)審查,科技公司已在用戶協(xié)議和交互界面顯著提示AI局限性,并采取檢索增強生成(RAG)等技術(shù)優(yōu)化輸出,最終因無法證明實際損害與因果關(guān)系,法院駁回原告訴請。
該判決釋放出三重行業(yè)信號。首先,明確劃定AI工具屬性邊界,防止法律人格泛化傾向,避免企業(yè)為算法不可控行為承擔(dān)無限責(zé)任。其次,確立“過錯責(zé)任+動態(tài)注意義務(wù)”的治理模式,既要求企業(yè)采取技術(shù)防范措施,又為創(chuàng)新保留彈性空間。最后,通過司法倡導(dǎo)形成審慎使用AI的社會文化,提醒公眾當(dāng)前大模型仍屬于文本輔助工具,關(guān)鍵決策需多方驗證。
法律專家指出,此案為AI治理提供了“中國方案”。在技術(shù)快速迭代背景下,司法裁判既需守住安全底線,又要避免過度規(guī)制阻礙創(chuàng)新。判決通過區(qū)分服務(wù)與產(chǎn)品責(zé)任、明確企業(yè)注意義務(wù)標(biāo)準(zhǔn),在用戶權(quán)益保護與技術(shù)發(fā)展需求間找到了平衡點。這種“發(fā)展型監(jiān)管”思路,或?qū)⒂绊懞罄m(xù)AI相關(guān)立法與司法實踐走向。
隨著生成式AI加速滲透教育、醫(yī)療、金融等領(lǐng)域,類似糾紛可能持續(xù)涌現(xiàn)。本案判決提醒行業(yè),技術(shù)中立不等于責(zé)任免除,企業(yè)需在算法優(yōu)化、風(fēng)險提示、投訴處理等方面建立全流程合規(guī)體系。對于普通用戶而言,保持對AI內(nèi)容的批判性思維,在重要決策中堅持人工復(fù)核,仍是規(guī)避風(fēng)險的有效方式。









