AIPress.com.cn報道
2月11日消息,OpenAI宣布升級其Responses API,新增Server-side Compaction(服務器端記憶壓縮)、Hosted Shell Containers(托管終端容器)以及對開放“Skills”標準的支持。這一系列更新直指AI代理在實際應用中最核心的兩個難題:記憶衰減和執行能力不足。
長期以來,開發者在構建AI代理時都會遇到一個現實問題:隨著任務持續進行,對話記錄不斷增長,模型很快觸及Token上限,不得不刪除早期上下文。這種“截斷式清理”往往會丟失關鍵推理過程,使代理在復雜任務中出現偏差甚至“失憶”。
OpenAI此次推出的Server-side Compaction并非簡單刪減歷史記錄,而是讓模型對自身行為進行結構化壓縮,在保留關鍵信息的同時釋放空間。
如果說記憶壓縮解決的是“能不能持續工作”的問題,那么Hosted Shell Containers則解決了“能做什么工作”。
通過container_auto選項,開發者可以直接調用OpenAI托管的Debian 12環境。該環境預裝Python、Node.js、Java、Go、Ruby等主流運行時,支持持久化存儲與聯網訪問。這意味著代理不僅能“思考”,還能真正執行代碼、生成文件、處理數據,并與外部系統交互。
對于企業團隊而言,這一能力大幅降低了構建Agent基礎設施的成本。過去,開發者需要自行搭建沙盒環境、管理狀態存儲、處理安全策略;如今,OpenAI將計算環境與模型能力整合為一體化服務,提供類似“托管工作站”的體驗。
與此同時,OpenAI還宣布全面支持基于SKILL.md規范的“Skills”標準。該標準已被Anthropic等廠商采用,使技能模塊可以在不同模型和平臺之間遷移。開源項目OpenClaw也已采用同一規范,形成跨生態的兼容趨勢。
在競爭格局上,OpenAI與Anthropic的策略差異逐漸清晰。OpenAI強調一體化基礎設施能力,將模型、記憶管理和執行環境打包為高性能底座;Anthropic則側重構建成熟的合作伙伴生態,強化即插即用的集成體驗。
對于企業決策者而言,問題不再是“AI能否完成任務”,而是“如何在可控、安全、可持續的架構下運行AI代理”。隨著代理擁有終端權限和網絡訪問能力,權限控制與審計機制也成為新的關注重點。(AI普瑞斯編譯)











