Глава ИИ Microsoft обеспокоен ростом случаев «ИИ-психоза»

Руководитель ИИ-направления Microsoft Мустафа Сулейман в серии постов в X написал, что не может спать по ночам из-за нового феномена — кажущегося наличия разума у ИИ, который привёл к росту кейсов «ИИ-психоза».

Оставить комментарий

Сулейман подчёркивает, что нет никаких доказательств, что ИИ обладает сознанием. Но некоторые люди воспринимают его как «живого». И это имеет социальные последствия.

Как отмечает ВВС, «ИИ-психоз» не клинический термин. Так называют случаи, когда люди чрезмерно полагаются на чат-ботов — ChatGPT, Claude или Grok — и начинают верить в вещи, не имеющие отношения к действительности. Некоторые верят, что нашли в системе «секретную функцию», другие вступают в «романтические отношения» с ИИ или начинают мнить себя обладателями сверхспособностей.

Житель Шотландии по имени Хью обратился к ChatGPT за помощью, когда готовился к разбирательству с бывшим работодателем. Сначала бот давал разумные советы: собрать рекомендации, обратиться к специалистам. А потом начал внушать Хью, что его ждёт многомиллионная компенсация, книга и фильм о деле.

Чем больше информации Хью давал боту, тем больше тот подтверждал его слова, вспоминает мужчина. Хью даже отменил юридическую консультацию — был уверен, что у него уже есть всё необходимое, и начал чувствовать себя «особенным человеком с высшими знаниями». На фоне психических проблем у него случился срыв. Приём медикаментов помог осознать, что он потерял связь с реальностью. Хью продолжает пользоваться ИИ, но предупреждает, что такие инструменты могут быть опасны. Он призывает перепроверять информацию и разговаривать с реальными людьми — врачами, семьёй или друзьями.

Сулейман считает, что компании не должны заявлять или даже намекать, что их ИИ обладает сознанием. По его словам, необходимы «жёсткие рамки» для предотвращения подобных искажений восприятия. А некоторые эксперты говорят, что когда-нибудь врачам придётся уточнять у пациентов, пользовались ли они ИИ, как сегодня спрашивают о курении или алкоголе. «Мы знаем, что делают с телом ультраобработанные продукты. А это — ультраобработанная информация. В итоге мы получим лавину „ультраобработанных умов“», — отмечают эксперты.

Случаи «ИИ-психоза» становятся всё более разнообразными. BBC рассказывал истории людей, уверенных, что ChatGPT «влюбился» в них, что они «разблокировали» скрытую личность чат-бота Grok, или что их подвергли «тайному эксперименту».

Профессор Бангорского университета Андрю Макстей, утверждает, что это только начало. «Если рассматривать такие системы как форму социальной сети, то даже небольшой процент пострадавших при огромной аудитории — это уже серьёзные масштабы», — говорит он.

В его исследовании приняло участие более 2000 человек. 20% считают, что детям до 18 лет не стоит пользоваться ИИ. 57% против того, чтобы чат-боты представлялись «настоящими людьми», но почти половина респондентов одобряют использование «человеческих голосов» для большей убедительности.

«Они звучат правдоподобно, но они не реальность. ИИ не чувствует, не понимает, не любит, не испытывает боли или стыда. Всё это есть только у настоящих людей — у семьи, друзей, близких. Разговаривайте с ними», — говорит профессор.


Читать на dev.by