近日,一款名為HappyHorse1.0的開源視頻生成模型在AI領域引發廣泛關注。這款由阿里團隊開發的模型以1333 Elo分強勢登頂Artificial Analysis視頻競技場排行榜,成為當前全球排名最高的開源視頻生成方案。其不僅在性能測試中展現出顯著優勢,更以多項技術創新突破行業瓶頸。
在核心性能方面,HappyHorse1.0對主流閉源模型形成碾壓態勢。測試數據顯示,該模型對OVI 1.1的勝率達到80%,面對LTX 2.3時仍保持60.9%的勝率。值得注意的是,此前該模型曾以匿名身份參與盲測,與字節跳動Seedance、Kling等商業產品同臺競技,其表現引發技術社區持續熱議。這種開源模型與閉源商業產品的直接對話,在AI發展史上尚屬首次。
技術架構層面,HappyHorse1.0開創性地實現音視頻聯合生成。基于40層統一自注意力Transformer架構,150億參數的模型在單張H100顯卡上生成5秒1080p視頻僅需38秒。更突破性的是,該模型原生支持中英日韓德法粵七種語言的唇形同步,詞錯誤率較同類開源模型降低37%,顯著提升多語言場景下的應用價值。
據阿里云內部人士透露,HappyHorse已通過內部審核并上架百煉平臺,預計將于一周后正式對外發布。這一動作標志著開源社區將首次獲得與頂級商業模型相抗衡的技術工具,可能引發視頻生成領域的技術路線重構。目前,相關技術文檔和模型權重已進入最后準備階段。
隨著發布日期臨近,技術社區對HappyHorse的期待持續升溫。有開發者指出,該模型在保持開源屬性的同時實現性能領先,或將改變當前AI視頻生成領域的競爭格局。特別是其多語言支持能力,可能為短視頻創作、影視制作等行業帶來新的可能性。










