國家網信辦聯合國家發展改革委、工業和信息化部、公安部、市場監管總局,共同發布了《人工智能擬人化互動服務管理暫行辦法》(以下簡稱《辦法》)。這一舉措旨在規范人工智能擬人化互動服務的發展,保障國家安全和社會公共利益,同時保護公民、法人和其他組織的合法權益。
近年來,隨著人工智能技術的不斷進步,擬人化互動服務在文化傳播、適幼照護、適老陪伴等領域的應用日益廣泛。然而,這一新興領域也暴露出諸多問題,如危害未成年人身心健康、影響網絡信息安全、威脅公民生命健康以及加劇倫理偏差等。為了應對這些挑戰,相關部門制定了《辦法》,以促進擬人化互動服務的健康發展和規范應用。
《辦法》明確規定了擬人化互動服務提供者的安全主體責任,要求其加強全生命周期的安全管理,包括部署、運行、升級和終止服務等各階段的安全要求。同時,服務提供者還需保障數據安全,保護用戶權益,并開展安全風險處置。
在未成年人保護方面,《辦法》提出了嚴格的要求。擬人化互動服務提供者不得向未成年人提供虛擬親屬、虛擬伴侶等虛擬親密關系的服務。對于向不滿十四周歲的未成年人提供其他擬人化互動服務或處理其個人信息的,必須取得其父母或其他監護人的同意。
《辦法》還鼓勵擬人化互動服務在多個領域的應用拓展,如文化傳播、適幼照護、適老陪伴和特殊人群支持等。同時,國家將支持算法、框架、芯片等技術的自主創新,推進相關標準建設,并探索電子簽名授權應用研究。
為了確保擬人化互動服務的安全性,《辦法》規定了多項禁止性活動,包括生成危害國家安全、榮譽和利益的內容,鼓勵自殘自殺等損害用戶身體健康的內容,以及誘導、套取國家秘密、商業秘密和個人隱私的內容等。服務提供者必須遵守這些規定,確保服務內容的合法性和正當性。
針對老年人用戶,《辦法》也提出了特別要求。服務提供者應加強對老年人健康使用服務的指導,以顯著方式提示安全風險,并及時響應老年人的咨詢和求助。同時,服務提供者還需依法落實數據產權等制度,保護用戶交互數據的安全。
為了確保《辦法》的有效實施,相關部門將建立健全監督檢查和法律責任機制。擬人化互動服務提供者需按照規定履行算法備案和變更、注銷備案手續,并接受網信部門的年度核驗。對于違反《辦法》規定的行為,相關部門將依法進行處理和處罰。
《辦法》還規定了安全評估制度。擬人化互動服務提供者在上線服務、增設功能或使用新技術導致服務發生重大變化時,需開展安全評估并向所在地省級網信部門提交評估報告。省級網信部門將依據職責進行書面審查和情況核實,確保服務的安全性。
《人工智能擬人化互動服務管理暫行辦法》的發布,標志著我國在人工智能擬人化互動服務領域邁出了重要的一步。通過規范服務提供者的行為,加強數據管理和安全保障,這一《辦法》將為擬人化互動服務的健康發展和規范應用提供有力保障。










