工業(yè)和信息化部聯(lián)合九個部門共同發(fā)布了《人工智能科技倫理審查與服務(wù)辦法(試行)》,旨在推動人工智能領(lǐng)域倫理審查技術(shù)的創(chuàng)新,并強化通過技術(shù)手段預(yù)防倫理風(fēng)險。這一新規(guī)的出臺,標(biāo)志著我國在人工智能治理方面邁出了重要一步。
根據(jù)辦法規(guī)定,人工智能科技倫理審查將重點關(guān)注人類福祉、公平公正和可控可信等核心原則。具體審查內(nèi)容包括訓(xùn)練數(shù)據(jù)的篩選標(biāo)準、算法和模型設(shè)計的合理性,以及系統(tǒng)是否能夠有效防止偏見和歧視。審查還將評估資源分配和決策過程的客觀性,確保技術(shù)應(yīng)用的包容性。
在信息披露方面,辦法要求相關(guān)企業(yè)必須公開算法、模型和系統(tǒng)的用途、運行邏輯及潛在風(fēng)險,以增強透明度。這一措施旨在保障公眾知情權(quán),促進技術(shù)應(yīng)用的信任度。
為支持高質(zhì)量審查,辦法鼓勵開源開放倫理審查數(shù)據(jù)集,并加強通用性風(fēng)險管理和評估工具的研發(fā)。同時,探索基于應(yīng)用場景的科技倫理風(fēng)險評估體系,以更精準地識別和應(yīng)對潛在問題。
辦法還提出推廣符合倫理標(biāo)準的人工智能產(chǎn)品和服務(wù),并保護相關(guān)審查技術(shù)的知識產(chǎn)權(quán)。這一系列舉措旨在構(gòu)建健康有序的人工智能發(fā)展環(huán)境,平衡技術(shù)創(chuàng)新與倫理風(fēng)險防控的關(guān)系。











