近日,游戲平臺Steam的運營方Valve對平臺上的AI內容披露規則進行了重要更新,明確了開發者在哪些情況下需要向玩家說明人工智能技術的應用。此次調整的核心在于聚焦玩家實際體驗到的AI生成內容,而非開發團隊內部使用的效率工具。
根據新規,Steam不再要求開發者披露后臺使用的輔助性AI工具,例如編程輔助或自動化開發軟件等。Valve方面表示,平臺更關注的是玩家在游戲過程中直接接觸到的內容,包括美術設計、音效制作、劇情文本、本地化翻譯、商店頁面介紹以及營銷素材等。若這些內容由生成式AI參與制作,開發者必須在游戲商店頁面的"關于本游戲"欄目中詳細說明AI的具體用途,并可根據實際情況進行更新。
另一類需要重點披露的情形是游戲運行過程中動態生成的AI內容。這包括玩家在游戲時實時產生的圖像、音頻或文本等。由于這類內容具有動態生成的特點,無法在上線前進行全面審核,Valve要求開發者在游戲設計階段就必須建立完善的安全管控機制,確保生成內容的合規性。
在責任劃分方面,Valve明確指出,開發者對防止不當或違法AI生成內容負有直接責任。為配合這一要求,Steam平臺將通過Overlay功能提供便捷的舉報渠道。若開發者未能有效管理相關系統,導致違規內容出現,Valve保留將游戲從平臺下架的權利。這一舉措旨在維護平臺內容的健康生態,保障玩家權益。











