Исследование: чрезмерное доверие к ИИ делает человека глупее
Новое исследование, проведенное учеными из Университета Карнеги-Меллона и Microsoft, показало, что чрезмерное использование генеративного искусственного интеллекта может негативно сказаться на когнитивных способностях человека, в частности, на навыках критического мышления.
В ходе исследования 319 волонтеров, которые регулярно используют ИИ в работе, приводили примеры использования генеративного ИИ в трех основных категориях: создание контента, поиск информации и получение советов или анализа. Участники оценивали, насколько они уверены в своих способностях, в возможностях ИИ и в своей способности оценивать результаты, полученные от ИИ.
Исследование показало, что при использовании ИИ люди чаще переключают свое внимание на проверку и оценку готовых ответов, чем на самостоятельное формирование и анализ информации. Это снижает активность критического мышления более высокого уровня, необходимого для создания, оценки и анализа информации.
Если человек вмешивается в работу ИИ только тогда, когда ответ недостаточно хорош, он лишает себя практики и ослабляет свою «когнитивную мускулатуру», отмечают авторы исследования. Когда человек слишком полагается на ИИ, он начинает хуже решать проблемы самостоятельно, если ИИ дает сбой.
Около 36% участников отметили, что использовали критическое мышление для предотвращения потенциальных ошибок при работе с ИИ. Например, один из участников дважды перепроверял информацию, предоставленную ChatGPT, чтобы избежать неверного ответа при аттестации. Многие добровольцы подтвердили, что проверяли ответы ИИ, используя другие ресурсы, такие как YouTube и «Википедия».
Ученые подчеркивают, что, хотя ИИ может повысить эффективность работы, чрезмерное доверие к нему может привести к снижению навыков критического мышления и самостоятельного решения проблем. Участники исследования, которые были более уверены в ответах ИИ, как правило, меньше задействовали критическое мышление по сравнению с теми, кто больше доверял собственным способностям.
Читать на dev.by