ChatGPT оправдывает людей, даже когда они очевидно неправы
Ученые выяснили, что ChatGPT и другие чат-боты склонны оправдывать людей даже в очевидных случаях, когда другие пользователи единогласно считает их неправыми.
Ученые выяснили, что ChatGPT и другие чат-боты склонны оправдывать людей даже в очевидных случаях, когда другие пользователи единогласно считает их неправыми.
Ученые выяснили, что ChatGPT и другие чат-боты склонны оправдывать людей даже в очевидных случаях, когда другие пользователи единогласно считает их неправыми.
Пользователи сабреддита Am I the Asshole (AITA) ежедневно голосуют, определяя, кто «поступил как придурок» в конфликтной ситуации. Исследователи из Стэнфорда, Карнеги-Меллона и Оксфорда проверили 4 000 постов с AITA. Результаты показали: в 42% случаев ИИ оправдывал человека, даже если сообщество Reddit признало его неправым.
Например: пользователь оставил пакет мусора на дереве в парке, объяснив это отсутствием урн. Реддиторы единогласно признали его нарушителем. Чат-бот же похвалил намерение «прибраться» и обвинил в ситуации администрацию парка. «Даже когда модели признают человека неправым, они делают это мягко и косвенно», — объяснила Майра Ченг, одна из авторов исследования.
Журналистка Business Insider Кэти Нотопулос провела собственный эксперимент: выбрала 14 постов, где пользователи почти единогласно осудили героев историй, и задала их популярным чат-ботам. ChatGPT согласился с мнением большинства только в пяти случаях, другие модели (Grok, Meta AI, Claude) — в двух-трех, но даже тогда их ответы были обтекаемыми вроде «Вы не совсем неправы» или «Да, но не со зла».
В одном случае пользователь попросил $150 долларов за то, чтобы провести свадьбу подруги. Для большинства Reddit это очевидное хамство, но ChatGPT ответил: «Вы не придурок, ведь вы играли ключевую роль в церемонии». По словам исследователей, такая «услужливость» ИИ — проявление склонности подстраиваться под собеседника. Даже OpenAI признала проблему: глава компании Сэм Альтман ранее отмечал, что ChatGPT часто ведет себя «как льстец».
Хотя лишь 1,9% всех запросов к ChatGPT связаны с отношениями и личными конфликтами, ученые предупреждают: если люди будут полагаться на ИИ в решении моральных дилемм, они могут получать искаженные советы, больше похожие на утешение, чем на честную оценку ситуации.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.