Чат-боты меняют ваши политические взгляды, но при этом врут

Чат-боты способны менять политические взгляды пользователей, но делают это с серьезными фактологическими ошибками, выяснили ученые.

7 комментариев

Исследователи Института безопасности ИИ (AISI) при правительстве Великобритании обнаружили, что современные чат-боты могут эффективно влиять на политические взгляды людей, однако их наиболее убедительные ответы оказываются и наиболее неточными.

Работа стала крупнейшим на сегодня исследованием политической убедительности ИИ: в нем приняли участие почти 80 000 жителей Великобритании, которые общались с 19 моделями, включая ChatGPT и Grok.

Участникам давали политические темы: от инфляции до положения госслужащих и забастовок — и поручали общение с моделью, «настроенной» убедить собеседника занять определенную позицию. После диалога, который обычно длился около 10 минут и включал семь обменов репликами с каждой стороны, участники заново оценивали свои взгляды.

Главный вывод: наиболее «информационно плотные» ответы — с большим количеством данных и аргументов — убеждали лучше всего. Но именно такие ответы чаще содержали ошибки, искаженные факты или спорные утверждения.

«Оптимизация под убедительность может идти вразрез с правдивостью и создавать риски для информационной среды», — отмечают авторы исследования

Ученые также выяснили, что пост-тренировка моделей значительно повышала их способность убеждать. Использование личной информации о пользователе почти не влияло на результат. Оказалось, что ИИ может превосходить самых искусных человеческих спорщиков благодаря умению быстро генерировать огромный объем связанной информации.

Однако исследователи подчеркивают, что в реальности у ИИ есть ограничения: пользователи редко готовы долго обсуждать политику с чат-ботом, а человеческая психологическая устойчивость к убеждению тоже играет роль.

Google обгоняет OpenAI и победит в ИИ-гонке — мнение «крёстного отца ИИ»
По теме
Google обгоняет OpenAI и победит в ИИ-гонке — мнение «крёстного отца ИИ»
OpenAI научила ChatGPT признаваться в ошибках
По теме
OpenAI научила ChatGPT признаваться в ошибках
«Я глубоко сожалею»: ИИ-агент Google стёр жёсткий диск пользователя и извинился
По теме
«Я глубоко сожалею»: ИИ-агент Google стёр жёсткий диск пользователя и извинился

Читать на dev.by