為促進人工智能技術有序發展,防范潛在倫理風險,工業和信息化部聯合九個部門近日聯合發布《人工智能科技倫理審查與服務辦法(試行)》。該文件明確要求構建覆蓋全生命周期的倫理標準體系,鼓勵通過技術創新提升審查能力,同時強調運用技術手段筑牢風險防控屏障。
新規將審查重點聚焦于六大核心維度:是否以增進人類福祉為根本目標、是否保障技術應用的公平性、是否確保系統可控可信賴、是否保持算法透明可解釋、是否建立責任追溯機制、是否落實隱私數據保護措施。具體審查內容包括技術成果的社會價值評估、訓練數據采集標準審查、算法模型設計合理性驗證等關鍵環節。
針對公眾普遍關注的算法黑箱問題,辦法特別規定開發者需完整披露技術用途和運行邏輯,禁止使用存在歧視性偏見的訓練數據。在隱私保護方面,要求建立數據全生命周期管理制度,確保個人生物特征、行為軌跡等敏感信息得到加密存儲和授權使用。該文件自發布之日起正式施行,標志著我國人工智能治理體系邁入規范化新階段。










