今日,人工智能企業(yè)MiniMax正式推出其最新研發(fā)的音樂生成模型——Music 2.6。該模型在功能上實現(xiàn)了重大突破,普通用戶每日可免費生成500次音樂內(nèi)容,開發(fā)者則可在免費額度基礎(chǔ)上額外調(diào)用100次API接口,為音樂創(chuàng)作與開發(fā)提供了更靈活的支持。

針對國風音樂創(chuàng)作,Music 2.6展現(xiàn)出獨特的技術(shù)優(yōu)勢。傳統(tǒng)國風音樂的精髓在于二胡的顫音、笛子的呼吸停頓、古箏的掃弦技巧以及戲曲唱腔的動態(tài)變化,這些細節(jié)往往決定了作品的感染力。此前市面上的AI音樂工具雖能識別"國風"標簽,但在實際生成中常出現(xiàn)節(jié)奏斷層、情感缺失等問題,作品聽起來更像機械拼接。而新模型通過深度學習傳統(tǒng)戲曲的"開場鑼鼓"結(jié)構(gòu),能夠精準控制弦樂與彈撥樂的分層進入時機,使旋律與人聲自然銜接,最終呈現(xiàn)出國風音樂特有的"呼吸感"。
在游戲配樂領(lǐng)域,Music 2.6同樣表現(xiàn)出色。研發(fā)團隊針對中低頻段進行專項優(yōu)化,通過算法分離鼓點與貝斯聲部,解決了傳統(tǒng)模型中低頻渾濁的問題。開發(fā)者只需在提示詞中描述音樂結(jié)構(gòu),例如"從壓抑氛圍開始→逐漸覺醒→最終爆發(fā)無敵感",模型即可自動生成符合敘事邏輯的配樂。這種結(jié)構(gòu)化創(chuàng)作能力,為游戲開發(fā)者提供了更高效的音頻解決方案。












