Google показала нейросеть, которая генерирует музыку по текстовому описанию
Но выкладывать её в открытый доступ компания не планирует.
- О нейросети MusicLM разработчик�� из Google рассказали на GitHub. Они не планируют делать её доступной или выкладывать исходный код. Но «для поддержки будущих исследований» они опубликовали набор из 5,5 тысяч пар «музыка-текст».
- MusicLM обучили на 280 тысячах часах музыки, чтобы та могла создавать связные песни для «сложных» описаний. Нейросеть генерирует мелодии на частоте 24 кГц, которая остается неизменной в течение нескольких минут.
- В качестве примеров исследователи приводят музыку для аркадной игры, песню, которая вызывает «ощущение, что ты затерялся в космосе», мелодию для медитации и другие.
- Кроме того, исследователи создали музыку по описанию картин Сальвадора Дали, Анри Матисса, Эдварда Мунка, Пабло Пикассо и других известных художников.
Разработчики отметили, что с нейросетью может быть связано много этических проблем — например, они обнаружили, что 1% сгенерированной музыки напрямую повторяет мелодии из набора для обучения. Этого уже достаточно, чтобы не выпускать MusicLM в открытый доступ из-за возможных проблем с авторским правом.
Компания не первая, кто создаёт подобные нейросети: например, OpenAI представила модель Jukebox в 2020 году, а у самой Google уже есть нейросеть для генерации мелодий на основе звуковых подсказок AudioML.
142 комментария