ИИ убеждает людей лавиной фактов, но из-за этого чаще врёт
Новое исследование опровергает популярные представления о том, что искусственный интеллект убеждает людей с помощью психологических приемов или персонализации.
Новое исследование опровергает популярные представления о том, что искусственный интеллект убеждает людей с помощью психологических приемов или персонализации.
Новое исследование опровергает популярные представления о том, что искусственный интеллект убеждает людей с помощью психологических приемов или персонализации.
Ученые из Великобритании и США выяснили: наибольший эффект дает информационная перегрузка: когда модель буквально «засыпает» собеседника фактическими утверждениями, даже если часть из них неверна.
В масштабном эксперименте приняли участие почти 77 тысяч британцев, которые обсуждали 707 политических тем с 19 языковыми моделями. Это позволило исследователям систематически проверить, какие стратегии делают ИИ более убедительным.
Результат оказался неожиданным. Самым действенным оказалось не моральное переосмысление или сторителлинг, а простое увеличение плотности информации, отмечают авторы работы.
Каждое дополнительное фактическое утверждение увеличивало вероятность убедить собеседника в среднем на 0,3 процентных пункта. Популярные опасения по поводу «микротаргетинга» оказались преувеличены. Исследователи проверили три стратегии персонализации, но их эффект не превысил 1 процентного пункта.
«Постобучение и информационно насыщенные подсказки оказались гораздо важнее, чем индивидуальный подбор аргументов», — говорится в исследовании.
Однако у информационной стратегии есть издержки. Самые убедительные модели оказались и наименее точными. Например, GPT-4o с информационно перегруженными промптами делал верные утверждения лишь в 62% случаев, тогда как при стандартной работе показатель составлял 78%.
Ученые также установили, что диалоговый формат заметно усиливает эффект. Переписка с ИИ убеждала на 41–52% лучше, чем чтение статичного текста на 200 слов. Причем эффект сохранялся: спустя месяц 36–42% первоначального воздействия все еще фиксировались у участников.
Данные показали: размер модели играет меньшую роль, чем методы постобучения. Увеличение вычислительных затрат в 10 раз повышало убедительность всего на 1,59 пункта. А вот постобучение давало прирост в 2–3,5 пункта. Так, небольшая открытая модель Llama-3.1-8B после оптимизации могла убеждать не хуже, чем гигантская GPT-4o.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.