Люди не могут отличить видео, сгенерированные OpenAI Sora, от настоящих
В середине февраля OpenAI представила модель Sora для генерации видео по текстовым описаниям. Как оказалось, она очень легко вводит пользователей в заблуждение — большинство американцев, которых неделю назад опросила компания HarrisX, ошиблось с идентификацией 5 из 8 роликов.
В эксперименте участвовало более 1000 респондентов. Им было предложено по 4 высококачественных ролика, сгенерированных Sora и снятых людьми.
В случае 3 роликов не менее половины опрошенных приняли их за настоящую съёмку. А авторство трёх «человеческих» видео большинство респондентов приписали нейросети.
Исследование показывает, что большинство людей неспособны отличить настоящие видео от сгенерированных, которые становятся всё реалистичнее. Большинство респондентов HarrisX считают, что власти США должны ввести обязательную маркировку для сгенерированного контента в любых форматах, включая видео, изображения, текст, музыку и прочие.
Sora пока не доступна широкой публике, но уже вызывает серьёзные опасения. Например, некоторые видят в подобных технологиях угрозу для индустрии развлечений. Также есть риск, что с помощью таких инструментов будут создаваться дипфейки, которые могут, например, использоваться для вмешательства в выборы.
Впрочем, далеко не все респонденты HarrisX настроены к Sora негативно: 28% испытывают любопытство, 27% — не уверены, 25% — открыты к технологии, 18% чувствуют тревогу и лишь 2% — страх.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.