Стартап Runway создал нейросеть для генерации видео по текстовым описаниям
Стартап Runway, принимавший участие в разработке нейросети Stable Diffusion, анонсировал ИИ-модель Gen-2, которая умеет генерировать видео по текстовым описаниям.
Если первая версия могла только преобразовывать загруженные пользователями картинки и ролики, применяя различные эффекты, то вторая создает видео с нуля по любому запросу. Однако длительность ограничена всего тремя секундами.
На текущий момент Gen-2 нет в свободном доступе, но представители Runway обещают, что релиз состоится в ближайшие месяцы. Пока пользователям предлагается записаться в лист ожидания на сайте проекта.




