17% скидка на размещение рекламы на площадках devby — до 20 ноября. Клац!
Support us

ИИ не умеет быть токсичным, чтобы сойти за человека

Международная команда ученых выяснила, что искусственному интеллекту гораздо труднее притворяться токсичным пользователем, чем умным.

Оставить комментарий
ИИ не умеет быть токсичным, чтобы сойти за человека

Международная команда ученых выяснила, что искусственному интеллекту гораздо труднее притворяться токсичным пользователем, чем умным.

Новое исследование Университета Цюриха, Амстердамского университета, Дьюка и Нью-Йоркского университета показало: даже самые продвинутые языковые модели по-прежнему легко отличимы от людей в соцсетях, главным образом по чрезмерно дружелюбному и эмоционально «стерильному» тону сообщений.

Исследователи протестировали девять открытых ИИ-моделей, включая Llama 3.1, Mistral 7B и Qwen 2.5 — на X, Bluesky и Reddit. Их алгоритм, названный «вычислительным тестом Тьюринга», смог выявить машинные ответы с точностью 70–80%.

Даже после многочисленных настроек ИИ не смог воспроизвести характерную для людей неформальную резкость и спонтанную эмоциональность: уровень «токсичности» в ответах ИИ стабильно был ниже, чем у реальных пользователей.

Ученые пытались научить модели быть более естественными: предоставляли примеры постов, контекст, даже данные о личности автора, но различия в интонации и эмоциональной выразительности сохранялись.

Более того, «дружественные» версии моделей, обученные на следование инструкциям, показали себя хуже в имитации человека, чем базовые версии. А увеличение размера модели, например, до 70 миллиардов параметров, не давало преимущества: большие модели звучали не более правдоподобно, чем компактные.

ИИ лучше всего имитировал пользователей X, а хуже всего — Reddit, где язык общения более разнообразен и экспрессивен. Это, по мнению исследователей, связано с тем, какие данные использовались при обучении моделей.

Авторы работы пришли к выводу: чем ближе ИИ подстраивается под человеческий стиль, тем меньше совпадений смысла его ответов с реальными комментариями. А если добиваться смыслового совпадения, то текст снова становится «машинным». Таким образом, эмоциональная достоверность и семантическая точность пока остаются взаимоисключающими целями.

Новый ИИ решает стоит ли вас нанимать по фото в LinkedIn
Новый ИИ решает, стоит ли вас нанимать, по фото в LinkedIn
По теме
Новый ИИ решает, стоит ли вас нанимать, по фото в LinkedIn
Google придумала как решить одну из главных проблем ИИ
Google придумала, как решить одну из главных проблем ИИ 
По теме
Google придумала, как решить одну из главных проблем ИИ
В корпоративном ИИ Copilot вырывается вперёд а Claude не оправдал ожиданий
В корпоративном ИИ Copilot вырывается вперёд, а Claude не оправдал ожиданий
По теме
В корпоративном ИИ Copilot вырывается вперёд, а Claude не оправдал ожиданий
Читайте также
«Крёстная мать ИИ»: настоящий прорыв начнётся, когда ИИ научится понимать пространство
«Крёстная мать ИИ»: настоящий прорыв начнётся, когда ИИ научится понимать пространство
«Крёстная мать ИИ»: настоящий прорыв начнётся, когда ИИ научится понимать пространство
Первый российский ИИ-робот дебютировал лицом в пол
Первый российский ИИ-робот дебютировал лицом в пол
Первый российский ИИ-робот дебютировал лицом в пол
1 комментарий
Основатель Google Brain говорит, что все должны учиться кодить. Но не «по-старому»
Основатель Google Brain говорит, что все должны учиться кодить. Но не «по-старому»
Основатель Google Brain говорит, что все должны учиться кодить. Но не «по-старому»
ЕС хочет ослабить защиту данных, чтобы не отстать в ИИ-гонке
ЕС хочет ослабить защиту данных, чтобы не отстать в ИИ-гонке
ЕС хочет ослабить защиту данных, чтобы не отстать в ИИ-гонке

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.