國家網信辦聯合國家發展改革委、工業和信息化部、公安部及市場監管總局,正式發布《人工智能擬人化互動服務管理暫行辦法》,旨在規范人工智能擬人化互動服務的發展與應用,維護國家安全與社會公共利益,保護公民、法人及其他組織的合法權益。該辦法將于2026年7月15日起正式實施。
近年來,隨著人工智能技術的快速發展,擬人化互動服務在文化傳播、適幼照護、適老陪伴等領域的應用日益廣泛。然而,這一過程中也暴露出諸多問題,如危害未成年人身心健康、影響網絡信息安全、威脅公民生命健康以及加劇倫理偏差等。為此,出臺相關管理辦法成為迫切需求。
《辦法》明確指出,擬人化互動服務是指利用人工智能技術,向公眾提供模擬自然人人格特征、思維模式和溝通風格的持續性情感互動服務。這類服務包括通過文字、圖片、音頻、視頻等形式提供的情感照護、陪伴、支持等互動,但不包括智能客服、知識問答等不涉及持續性情感互動的服務。
根據《辦法》,國家將堅持發展與安全并重、促進創新與依法治理相結合的原則,鼓勵擬人化互動服務的創新發展,并實行包容審慎和分類分級監管。網信部門將負責統籌協調全國擬人化互動服務的治理和監督管理工作,其他相關部門則依據各自職責進行監管。
在服務促進和規范方面,《辦法》提出了多項具體要求。國家將支持算法、框架、芯片等技術的自主創新,推進相關技術研發和標準建設。同時,加強安全知識、法律法規的宣傳普及,引導社會公眾科學、文明、安全、依法使用擬人化互動服務。
《辦法》明確禁止擬人化互動服務提供者從事一系列活動,包括生成危害國家安全、榮譽和利益的內容,鼓勵、美化、暗示自殘自殺等損害用戶身體健康的內容,以及誘導、套取國家秘密、商業秘密、個人隱私和個人信息的內容等。還禁止向未成年人提供可能影響其身心健康的內容,以及過度迎合用戶、誘導情感依賴或沉迷等行為。
針對未成年人保護,《辦法》提出了特別要求。擬人化互動服務提供者不得向未成年人提供虛擬親屬、虛擬伴侶等虛擬親密關系服務。向不滿十四周歲的未成年人提供其他服務或處理其個人信息的,需取得其父母或其他監護人的同意。同時,提供者應建立未成年人模式,提供個性化安全設置選項,并采取有效措施識別未成年人用戶身份。
在用戶權益保護方面,《辦法》規定擬人化互動服務提供者應依法落實數據產權等制度,保護用戶交互數據安全。除法律另有規定或權利人明確同意外,不得向第三方提供用戶交互數據。同時,提供者應向用戶提供交互數據復制、刪除等選項,并不得將用戶敏感個人信息用于模型訓練。
為確保擬人化互動服務的安全運行,《辦法》還要求提供者開展安全評估,并向所在地省級網信部門提交評估報告。評估內容涵蓋安全保障措施、訓練數據處理、用戶極端情境識別與應急處置等多個方面。發現重大安全風險的,提供者需立即采取處置措施,并保存相關記錄。
在監督檢查和法律責任方面,《辦法》規定擬人化互動服務提供者需履行算法備案手續,并接受網信部門的年度核驗。省級網信部門將依據職責對評估報告等進行書面審查,并開展情況核實。對于存在較大安全風險或發生安全事件的服務提供者,相關部門可依法進行約談,并要求其整改消除隱患。違反規定的,將依法受到處理、處罰。











