Stability AI запустила генератор музыки по тексту

Разработчики популярной системы для порождения картинок Stable Diffusion выпустили новую ИИ-платформу — она называется Stable Audio и умеет создавать музыку по текстовому описанию пользователя.

1 комментарий

В основе Stable Audio, как и в Stable Diffusion, лежит диффузионная модель, но обучалась она не на картинках, а на аудиофайлах. Её можно свободно использовать для создания песен и другого звукового сопровождения. Stable Audio способна генерировать аудио любой длительности.

Модель обучали на датасете, содержащем текстовые метаданные и более 800 тысяч аудиофайлов с музыкой, звуковыми эффектами и инструментальными партиями продолжительностью более 19,5 тысяч часов.

Пользователям предлагается три тарифа:

  • в бесплатной версии Stable Audio можно создавать 20 треков в месяц длительностью до 45 секунд. На этом тарифе нельзя использовать сгенерированное аудио в коммерческих целях;
  • тариф Professional стоит $11,99 и позволяет создавать 500 треков в месяц длительностью до 90 секунд;
  • на корпоративном тарифе Enterprise условия и цены обсуждаются в индивидуальном порядке.

Это не первая модель в своём роде. В августе Meta выпустила ИИ-генератор музыки по текстовым запросам AudioCraft. Пока он доступен только исследователям и некоторым людям, профессионально работающим с музыкой. Также существует MusicLM от Google, но она тоже пока открыта только для исследователей.

Разработчики Stable Diffusion запустили ИИ-генератор кода
По теме
Разработчики Stable Diffusion запустили ИИ-генератор кода
ИИ заменит живых программистов через 5 лет — глава Stability AI 
По теме
ИИ заменит живых программистов через 5 лет — глава Stability AI

Читать на dev.by