🇵🇱 Дедлайн по e-PIT всё ближе ⏳ Поддержите devby из уже уплаченных налогов 💙
Support us

ИИ заставляет людей думать, что они умнее, чем есть на самом деле

Исследователи из Университета Аалто обнаружили, что взаимодействие с искусственным интеллектом формирует у пользователей ложное чувство уверенности в своих когнитивных навыках.

Оставить комментарий
ИИ заставляет людей думать, что они умнее, чем есть на самом деле

Исследователи из Университета Аалто обнаружили, что взаимодействие с искусственным интеллектом формирует у пользователей ложное чувство уверенности в своих когнитивных навыках.

В исследовании приняли участие около 500 человек. Одной группе предлагалось решить логические задачи из теста LSAT (вступительный экзамен в американские юридические школы) самостоятельно, другой — с помощью ChatGPT.

После каждого задания участники оценивали собственную успешность. Несмотря на то, что пользователи ИИ действительно показывали лучшие результаты, их самооценка оказалась еще выше — то есть они переоценивали эффект от использования модели.

Авторы называют этот феномен «обратным эффектом Даннинга–Крюгера»: обычно люди с низкими результатами переоценивают себя, а с высокими — недооценивают. Но при использовании ChatGPT картина меняется — чем выше уровень «грамотности в области ИИ», тем сильнее иллюзия компетентности.

«Мы ожидали, что люди, хорошо разбирающиеся в ИИ, будут точнее оценивать свои результаты. Но оказалось наоборот — чем больше они знают, тем больше переоценивают себя», — объяснил профессор Робин Вельш.

Авторы отмечают, что большинство участников использовали ChatGPT поверхностно: просто вводили вопрос один раз и принимали ответ без проверки. Это явление они называют «когнитивной разгрузкой»: когда человек полностью перекладывает процесс мышления на ИИ.

«Такая стратегия мешает развивать метакогницию — осознание собственных мыслительных процессов. Мы не учимся замечать и исправлять ошибки, потому что не взаимодействуем с системой глубже», — добавила аспирантка Даниэла да Силва Фернандес.

Ученые предлагают встраивать в интерфейсы ИИ механизмы, которые стимулируют пользователя объяснять собственные рассуждения и критически оценивать полученные ответы. Это, по их мнению, поможет развить навыки рефлексии и повысить качество взаимодействия с искусственным интеллектом.

Google представила ИИ-сервис для маркетинговых кампаний
Google представила ИИ-сервис для маркетинговых кампаний
По теме
Google представила ИИ-сервис для маркетинговых кампаний
Дуров представил Cocoon — децентрализованную сеть для ИИ и блокчейна
Дуров представил Cocoon — децентрализованную сеть для ИИ и блокчейна
По теме
Дуров представил Cocoon — децентрализованную сеть для ИИ и блокчейна
GitHub собрал ИИ-агентов OpenAI Google и Anthropic в одном месте
GitHub собрал ИИ-агентов OpenAI, Google и Anthropic в одном месте
По теме
GitHub собрал ИИ-агентов OpenAI, Google и Anthropic в одном месте
Поддержите редакцию 1,5% налога: бесплатно и за 5 минут

Как помочь, если вы в Польше

Читайте также
ChatGPT оправдывает людей, даже когда они очевидно неправы
ChatGPT оправдывает людей, даже когда они очевидно неправы
ChatGPT оправдывает людей, даже когда они очевидно неправы
ChatGPT отвечает точнее, если с ним разговаривать грубо
ChatGPT отвечает точнее, если с ним разговаривать грубо
ChatGPT отвечает точнее, если с ним разговаривать грубо
OpenAI объяснила, почему чат-боты галлюцинируют
OpenAI объяснила, почему чат-боты галлюцинируют
OpenAI объяснила, почему чат-боты галлюцинируют
3 комментария
Чат-боты делают обучение поверхностным и снижают мотивацию
Чат-боты делают обучение поверхностным и снижают мотивацию
Чат-боты делают обучение поверхностным и снижают мотивацию

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.