Чат-боты меняют ваши политические взгляды, но при этом врут
Чат-боты способны менять политические взгляды пользователей, но делают это с серьезными фактологическими ошибками, выяснили ученые.
Исследователи Института безопасности ИИ (AISI) при правительстве Великобритании обнаружили, что современные чат-боты могут эффективно влиять на политические взгляды людей, однако их наиболее убедительные ответы оказываются и наиболее неточными.
Работа стала крупнейшим на сегодня исследованием политической убедительности ИИ: в нем приняли участие почти 80 000 жителей Великобритании, которые общались с 19 моделями, включая ChatGPT и Grok.
Участникам давали политические темы: от инфляции до положения госслужащих и забастовок — и поручали общение с моделью, «настроенной» убедить собеседника занять определенную позицию. После диалога, который обычно длился около 10 минут и включал семь обменов репликами с каждой стороны, участники заново оценивали свои взгляды.
Главный вывод: наиболее «информационно плотные» ответы — с большим количеством данных и аргументов — убеждали лучше всего. Но именно такие ответы чаще содержали ошибки, искаженные факты или спорные утверждения.
«Оптимизация под убедительность может идти вразрез с правдивостью и создавать риски для информационной среды», — отмечают авторы исследования
Ученые также выяснили, что пост-тренировка моделей значительно повышала их способность убеждать. Использование личной информации о пользователе почти не влияло на результат. Оказалось, что ИИ может превосходить самых искусных человеческих спорщиков благодаря умению быстро генерировать огромный объем связанной информации.
Однако исследователи подчеркивают, что в реальности у ИИ есть ограничения: пользователи редко готовы долго обсуждать политику с чат-ботом, а человеческая психологическая устойчивость к убеждению тоже играет роль.
Читать на dev.by