Google 27 日發表 AI 模型 MusicLM,可用文字描述產生任何類型高傳真音樂。但因擔心風險,Google 沒有開放使用的計劃。
「我們需做更多工作應對與音樂產生的相關風險──我們目前沒有發表模型的計劃。」Google論文說。
Google AudioML和人工智慧研究機構OpenAI的Jukebox等專案都能用文字產生音樂,但MusicLM模型和龐大的訓練資料庫(28萬小時音樂)更能製作出特別複雜或傳真度高的歌曲。MusicLM不僅結合流派和樂器,還能使用電腦通常難以掌握的抽象概念編寫曲目,如「舞曲和雷鬼音樂的混合體,曲調空曠、超凡脫俗,能喚起驚奇和敬畏感」,MusicLM不但理解也能產生不錯的作品。
Google研究員說,系統可建立在現有旋律基礎上,無論哼唱、演唱、吹口哨還是樂器演奏。此外MusicLM有「故事模式」可設計特定時期風格、氛圍和節奏轉變,如採用按順序編寫的描述「冥想時間」、「醒來時間」、「跑步時間」以建立「故事性」旋律。