國家網信辦聯合國家發展改革委、工業和信息化部等四部門近日正式發布《人工智能擬人化互動服務管理暫行辦法》,明確要求相關服務提供者不得向未成年人輸出可能影響身心健康的互動內容。這一新規針對近年來快速發展的擬人化互動服務領域,首次建立了系統性監管框架,將于2026年7月15日起正式實施。
根據辦法規定,利用人工智能技術模擬人類人格特征、思維模式和溝通風格,并向境內公眾提供持續性情感互動的服務均納入監管范圍。監管部門特別強調,服務提供者必須嚴格過濾可能引發未成年人模仿危險行為、產生極端情緒或形成不良嗜好的內容,從技術層面筑牢未成年人保護屏障。
針對行業現存問題,新規設立了多重禁止性條款。包括禁止生成美化自殘自殺、實施語言暴力等損害用戶身心健康的內容;禁止通過過度迎合、情感操縱等手段破壞用戶現實人際關系;禁止誘導用戶作出違背自身利益的決策行為。這些條款直指當前部分智能陪伴產品存在的倫理風險和安全隱患。
在強化監管的同時,辦法也體現了創新包容的治理理念。明確提出堅持發展與安全并重原則,對不同風險等級的服務實施分類分級管理。對于文化傳播、適幼照護、適老陪伴等領域的創新應用,將在確保安全的前提下給予發展空間,推動技術向善發展。
業內專家指出,隨著生成式人工智能技術的突破,擬人化互動服務已滲透至教育、醫療、養老等多個民生領域。此次專項立法既回應了社會對技術濫用的擔憂,也為行業健康發展劃定了清晰邊界,標志著我國人工智能治理體系進一步完善。











