Google 今天發布了名為 Brain2Music 的模型,它可以根據人類大腦活動生成音樂。該模型是基於功能性磁共振成像(fMRI)數據訓練的,可以生成各式各樣的音樂,包括藍調、古典、鄉村、迪斯可、嘻哈、爵士樂、金屬、流行、雷鬼和搖滾。
研究人員招募了 5 名志願者,讓他們聽了 15 秒的不同音樂片段,然後記錄了他們的 fMRI 數據。然後,Google 使用這些數據訓練了一個深度神經網路,以了解大腦活動模式與音樂節奏和情感等不同元素之間的關係。

Brain2Music 模型基於Google之前推出的 MusicLM 模型,它可以基於文本生成音樂片段。Brain2Music 可以生成 15 秒的音樂片段,其中一段內容與測試聽到的原版音樂基本相同。
Google 表示,Brain2Music 模型可以用來幫助人們創作音樂,也可以用來研究大腦如何處理音樂。該模型仍在開發中,但它有可能徹底改變我們與音樂互動的方式。
以下是 Brain2Music 模型的一些特點:
- 它可以生成各式各樣的音樂,包括藍調、古典、鄉村、迪斯可、嘻哈、爵士樂、金屬、流行、雷鬼和搖滾。
- 它可以根據人類大腦活動生成音樂,這意味著它可以生成與用戶個人喜好相匹配的音樂。
- 它仍在開發中,但它有可能徹底改變我們與音樂互動的方式。
公開留言