工業和信息化部聯合九個部門共同發布了《人工智能科技倫理審查與服務辦法(試行)》,旨在通過技術創新強化人工智能倫理風險的防范能力。該辦法提出,將重點支持倫理審查技術的研發與應用,推動以技術手段構建人工智能發展的安全屏障。
根據辦法規定,人工智能倫理審查需圍繞人類福祉、公平公正、可控可信三大核心展開。具體審查內容包括:訓練數據采集標準的科學性,算法模型設計的合理性;是否建立防止算法歧視、數據壓榨的機制,確保資源分配與決策過程的透明度;是否向公眾充分披露技術用途、運行邏輯及潛在風險等信息。這些要求旨在構建覆蓋人工智能全生命周期的倫理監管體系。
為提升審查效能,辦法明確提出要推動高質量倫理審查數據集的開源共享,加快研發通用型風險評估工具。通過建立基于應用場景的倫理評測機制,對人工智能產品和服務進行分級分類管理。同時強調保護倫理審查相關技術的知識產權,鼓勵企業開發符合倫理標準的智能應用。
該辦法的出臺標志著我國人工智能治理體系進一步完善,通過建立事前審查與過程監管相結合的機制,既保障技術創新活力,又防范技術濫用風險。相關部門將配套制定實施細則,推動倫理審查要求轉化為可操作的技術標準,為人工智能健康發展提供制度保障。











