工業和信息化部等十部門近日聯合發布《人工智能科技倫理審查與服務辦法(試行)》,為人工智能領域的科技倫理治理構建起系統性規范框架。該文件通過細化審查程序、明確監管要求、強化協同機制,為人工智能技術的健康發展提供制度保障,標志著我國人工智能治理體系邁入精細化階段。
在審查程序方面,《辦法》創新性地設計了分層分類的審查機制。常規科技活動采用一般程序,涉及重大倫理風險的則需啟動專家復核程序,緊急情況下可適用應急程序。申請主體需向單位倫理委員會或指定服務中心提交材料,經形式審查后確定程序類型。對于納入重點監管清單的項目,需經過單位初審、主管部門復核雙重把關,復核意見將成為最終審批的核心依據。
針對人工智能技術特性,《辦法》確立了六項核心審查原則:人類福祉優先、公平性保障、技術可控性、算法透明度、責任追溯機制、隱私保護強度。審查機構將重點評估科技人員資質、科研價值取向、風險收益比、應急預案可行性等關鍵指標。特別要求對算法模型的社會動員能力、人機融合系統對心理行為的影響、自主決策系統的安全風險進行專項審查。
為優化營商環境,《辦法》建立差異化監管機制。對已納入深度合成、算法推薦等領域行政審批的項目,只要符合科技倫理要求即可免于專家復核。同時設定動態跟蹤審查周期,常規項目不超過12個月,高風險項目縮短至6個月,確保倫理監管與技術創新同步迭代。對于倫理風險顯著變化的項目,強制要求重新啟動完整審查流程。
在協同治理方面,《辦法》與《科技倫理審查辦法(試行)》形成有機互補。前者作為人工智能領域的專項規范,在通用審查框架基礎上,針對技術特征細化了23項操作細則,包括申請材料清單、簡易程序適用條件等。這種"基礎規范+專項規則"的立法模式,既保證了治理體系的統一性,又增強了專業領域的實操性。
文件明確劃定三類必須專家復核的高風險領域:影響人類認知決策的人機交互系統、具有輿論引導功能的算法模型、涉及生命安全的自主決策系統。這類項目的審查需組建跨學科專家組,在30個工作日內完成合規性復核。中央企業項目直接報請國家主管部門,地方企業項目由省級部門組織審查,形成分級負責的監管格局。
為保障制度落地,《辦法》構建了多維支撐體系。在標準建設層面,推動制定人工智能倫理評估指標體系;服務體系建設方面,鼓勵設立區域性倫理審查中心;人才培養機制上,要求科研機構配備專職倫理專員。同時建立違規懲戒機制,對違反倫理規范的行為,將依據網絡安全、數據安全等相關法律實施聯合懲戒。
據參與起草的專家介紹,該辦法在制定過程中廣泛吸納了產學研各方意見,歷經12輪修改完善。其核心突破在于將倫理審查嵌入技術創新全流程,既設置安全底線,又預留發展空間。隨著文件正式實施,我國人工智能治理將從原則性指導轉向精細化操作,為全球人工智能倫理建設提供中國方案。











