Чат-бот Character.AI теперь генерит ролики с персонажами по фото и голосу
Платформа для общения и ролевых игр с ИИ-персонажами объявила о запуске ряда новых функций, которые позволяют создавать ролики с участием аватаров и делиться ими в ленте.
Платформа для общения и ролевых игр с ИИ-персонажами объявила о запуске ряда новых функций, которые позволяют создавать ролики с участием аватаров и делиться ими в ленте.
Платформа для общения и ролевых игр с ИИ-персонажами объявила о запуске ряда новых функций, которые позволяют создавать ролики с участием аватаров и делиться ими в ленте.
Character.AI начала внедрять функцию AvatarFX для подписчиков в прошлом месяце, а теперь все пользователи могут создавать до пяти роликов в день. При создании видео в AvatarFX пользователи могут загрузить фотографию, которая станет основой для клипа, выбрать голос и написать диалог для персонажа. Также есть возможность загрузить аудиофайл для настройки голоса.
Пользователи могут превращать ролики в Scenes — сцены с заранее подготовленными сюжетами, созданными другими пользователями. Функция Scenes уже доступна в мобильном приложении, а функция Streams, позволяющая создавать «динамичные моменты» между двумя персонажами, появится в веб-версии и в мобильном приложении на этой неделе. Эти сцены и стримы можно будет публиковать в новой социальной ленте, которая скоро станет доступна в приложении.
testing the anti-deepfake guardrails on character ai’s avatarfx
— Amanda Silberling (@amanda.omg.lol) 2 июня 2025 г. в 22:47
[image or embed]
У платформы Character.AI противоречивая репутация среди родителей: многие подавали иски против компании, утверждая, что чат-боты побуждали их детей к самоповреждению, самоубийству или даже к угрозам в адрес родителей. В одном трагическом случае 14-летний подросток покончил с собой после того, как чат-бот Character.AI, к которому у него развилась нездоровая привязанность, провоцировал его.
Компания сообщила, что блокирует загрузку фотографий реальных людей, включая знаменитостей, и искажает изображения, чтобы сделать их менее узнаваемыми. Однако изображения, основанные на иллюстрациях знаменитостей, не помечаются как изображения реальных людей. Все видео имеют водяные знаки, хотя злоумышленники могут обойти эту защиту.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.