在阿姆斯特丹舉辦的KubeCon Europe大會上,英偉達宣布了一項重要舉措:將其動態資源分配(DRA)GPU驅動正式捐贈給云原生計算基金會(CNCF),由社區主導后續的開發與管理工作。這一決策標志著原本由廠商主導的軟件生態向開源協作模式轉型,為全球開發者提供了更廣闊的創新空間,同時確保技術能夠與現代云原生環境深度融合。
據介紹,DRA驅動的核心功能是優化Kubernetes環境下的AI工作負載效率。通過支持動態分配GPU資源,開發者可以更靈活地調整計算能力,尤其在大規模模型訓練場景中,這種靈活性能夠顯著提升資源利用率。該驅動整合了英偉達的Multi-Process Service與Multi-Instance GPU技術,允許單張GPU被多個任務共享或分割為多個獨立實例,滿足不同場景的需求。
在技術架構層面,DRA驅動通過Multi-Node NVlink技術實現了跨系統的GPU互聯。這意味著開發者可以將多臺服務器的GPU資源整合為一個計算池,為超大規模AI訓練提供硬件支持。資源分配的精度也得到提升,開發者可以針對計算單元、內存帶寬及網絡連接等參數進行精細化配置,從而優化任務執行效率。
與DRA驅動同步推進的,還有英偉達在安全計算領域的布局。聯合CNCF的Confidential Containers社區,英偉達推出了支持GPU加速的Kata Containers方案。該方案在保持硬件加速性能的同時,通過增強容器隔離機制,為AI工作負載構建了保密計算環境。這種設計既滿足了數據安全需求,又避免了傳統安全方案對性能的損耗。
開源生態的擴展是本次發布的另一重點。英偉達將KAI Scheduler項目納入CNCF Sandbox,該調度器專門針對AI任務優化資源分配策略。同時,NemoClaw與OpenShell Runtime等工具的開源,為自主AI代理的安全運行和復雜工作負載管理提供了標準化解決方案。這些項目的共同特點是強調企業級應用的穩定性與可擴展性。
目前,所有相關項目均已開放源代碼,開發者和企業可直接下載使用。英偉達鼓勵社區成員參與貢獻代碼、提交功能需求或改進建議,以加速企業級AI基礎設施的標準化進程。這種開放協作模式被業界視為推動AI技術普及的關鍵一步,尤其是在混合云與多云部署成為主流的背景下,開源方案能夠降低技術門檻,促進創新成果的快速落地。










