Home Google Google 發布 Brain2Music 模型:可基於人類大腦活動生成音樂
GoogleAI產業

Google 發布 Brain2Music 模型:可基於人類大腦活動生成音樂

Google 發布 Brain2Music 模型:可基於人類大腦活動生成音樂 Brain2Music 評論, AI, 產業

Google 今天發布了名為 Brain2Music 的模型,它可以根據人類大腦活動生成音樂。該模型是基於功能性磁共振成像(fMRI)數據訓練的,可以生成各式各樣的音樂,包括藍調、古典、鄉村、迪斯可、嘻哈、爵士樂、金屬、流行、雷鬼和搖滾。

研究人員招募了 5 名志願者,讓他們聽了 15 秒的不同音樂片段,然後記錄了他們的 fMRI 數據。然後,Google 使用這些數據訓練了一個深度神經網路,以了解大腦活動模式與音樂節奏和情感等不同元素之間的關係。

Google 發布 Brain2Music 模型:可基於人類大腦活動生成音樂 Brain2Music 評論, AI, 產業

Brain2Music 模型基於Google之前推出的 MusicLM 模型,它可以基於文本生成音樂片段。Brain2Music 可以生成 15 秒的音樂片段,其中一段內容與測試聽到的原版音樂基本相同。

Google 表示,Brain2Music 模型可以用來幫助人們創作音樂,也可以用來研究大腦如何處理音樂。該模型仍在開發中,但它有可能徹底改變我們與音樂互動的方式。

以下是 Brain2Music 模型的一些特點:

  • 它可以生成各式各樣的音樂,包括藍調、古典、鄉村、迪斯可、嘻哈、爵士樂、金屬、流行、雷鬼和搖滾。
  • 它可以根據人類大腦活動生成音樂,這意味著它可以生成與用戶個人喜好相匹配的音樂。
  • 它仍在開發中,但它有可能徹底改變我們與音樂互動的方式。
Written by
黃郁棋

在科技業打滾十年的老屁股,每天都覺得自己要被新技術取代了,完了完了。

公開留言

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *