阿里巴巴與上海人工智能實驗室近日聯合發布了一份長達70頁的報告,題為《智能時代做負責任的技術》。該報告圍繞“守己、利他、合作”三大核心原則,系統闡述了在云+AI戰略背景下,負責任人工智能的發展實踐與治理路徑。這一舉措不僅展現了科技企業在推動AI安全、普惠與協同發展方面的行動與擔當,也為全球智能時代的AI治理提供了中國方案。
在“守己”方面,阿里巴巴構建了一套評測牽引、內外兼備的全生命周期AI安全體系。通過內生安全機制,讓安全成為模型的本能,從預訓練到強化學習等多個階段塑造模型的安全行為。同時,外層護欄的引入實現了實時風險攔截,結合數字水印、AI生成內容檢測等工具,有效防范了盜用與濫用。阿里巴巴還打造了安全可信的云上大模型服務,針對性應對Agent爆發帶來的記憶投毒、權限混亂等特有安全挑戰,為AI技術筑牢了可信底座。
在“利他”維度上,阿里巴巴致力于通過開源開放推動技術普惠。公司持續開源Qwen系列大模型,構建了分層的開源生態與AI應用服務體系,明確了各主體責任并實施分級分層的風險治理。同時,阿里巴巴立足大模型“全球造、全球用”的本質,推動其全球化發展與跨文化適配。公司還理性評估了AI對經濟社會、商業的深層影響,通過技術優化引導AI正向價值發揮,避免技術濫用,堅守長期價值建設。
在“合作”方向上,阿里巴巴積極聚力政產學研多方協同。公司與高校共建實驗室、開展科研課題合作,持續發布人工智能治理知識產品,打造知識共享平臺。通過產學聯訓、舉辦賽事等方式,阿里巴巴培育了大量AI安全與治理人才。同時,公司還積極參與并牽頭國家及國際AI安全標準制定,推動技管融合與行業共識形成,為AI技術的健康發展提供了有力支撐。
報告還深入探索了AI治理的前沿方向。阿里巴巴提出“Make Safe AI”理念與前沿AI風險管理框架,以技術創新驅動AI安全與性能協同提升。公司倡導將AI安全作為全球公共產品,呼吁全球多元主體協同構建安全、向善、可持續的AI發展范式。這一系列舉措不僅體現了阿里巴巴在AI治理領域的領先地位,也為全球智能時代的AI治理貢獻了中國智慧與力量。













