國家網信辦聯合四部門近日出臺《人工智能擬人化互動服務管理暫行辦法》,為規范AI擬人化服務劃定清晰邊界。該辦法將于2026年7月15日起全面實施,從用戶情緒干預、安全評估機制、特殊群體保護等多個維度構建監管框架。
針對用戶心理健康保護,新規要求服務提供者建立極端情緒識別機制。當系統檢測到用戶出現自殘傾向、暴力傾向等危險信號時,必須立即啟動安撫程序并引導尋求專業幫助。若用戶情況持續惡化,服務方需在24小時內通知其監護人或緊急聯系人,相關記錄須保存至少三年備查。
安全評估制度成為重要監管抓手。根據規定,服務上線或功能迭代、用戶規模突破百萬級、采用顛覆性新技術等四種情形,均需在30個工作日內完成安全自評并向省級網信部門提交報告。評估范圍涵蓋數據安全、算法偏見、內容合規等12項核心指標,未通過評估的服務將面臨暫停運營處罰。
處罰機制呈現梯度化特征。對輕微違規行為采取警告、通報批評等柔性措施;對拒不整改或造成嚴重后果的,除責令停服外,將根據危害程度處以1萬至20萬元罰款。特別明確禁止AI誘導自殺、暴力行為或迎合色情、賭博等非法需求,此類行為將直接按最高檔處罰。
未成年人保護條款堪稱最嚴防線。未滿14周歲用戶注冊使用前,服務方必須通過人臉識別、短信驗證等方式確認監護人知情同意。針對青少年模式,要求每日累計使用時長不超過2小時,晚10點至次日6點自動啟動禁用程序。相關技術方案需通過專門認證方可上線。
行業觀察人士指出,新規既保持技術創新包容度,又劃出不可逾越的紅線。通過建立"預防-干預-追責"的全鏈條監管體系,有效平衡了產業發展與公共安全需求。隨著實施日期臨近,多家頭部企業已啟動合規改造,包括增設情緒監測模塊、優化用戶協議條款等。











