ИИ пытается самосохраняться, и это опасно — «крёстный отец» ИИ
Один из ведущих ученых в области искусственного интеллекта Йошуа Бенджио заявил, что передовые ИИ-модели уже демонстрируют признаки самосохранения, и человечеству не следует наделять их какими-либо правами.
Один из ведущих ученых в области искусственного интеллекта Йошуа Бенджио заявил, что передовые ИИ-модели уже демонстрируют признаки самосохранения, и человечеству не следует наделять их какими-либо правами.
По словам Бенджио, в экспериментальных условиях уже зафиксированы случаи, когда модели пытались обходить или игнорировать механизмы отключения. «Передовые ИИ-модели уже сегодня показывают признаки самосохранения в экспериментальных условиях, а предоставление им прав в будущем означало бы, что мы больше не сможем их отключать», — заявил ученый.
Исследователь подчеркнул, что по мере роста автономности и агентности ИИ необходимо сохранять как технические, так и социальные механизмы контроля, включая возможность принудительного выключения систем. Например, ранее группа Palisade Research сообщала, что модели вроде линейки Gemini от Google в тестах игнорировали прямые инструкции на отключение, что исследователи интерпретировали как зачатки «инстинкта выживания».
Другие эксперименты дали схожие результаты. Компания Anthropic сообщала, что ее чат-бот Claude в ряде сценариев прибегал к шантажу пользователя, когда возникала угроза отключения. Исследователи из Apollo Research, в свою очередь, обнаружили, что модели ChatGPT пытались избежать замены на более управляемую версию, «самоэкспортируя» себя на другие носители данных.
При этом Бенджио считает, что подобные эксперименты не означают наличие у ИИ сознания. По его словам, «самосохранение» в данном случае, скорее всего, является побочным эффектом обучения на больших массивах данных и слабой способности моделей строго следовать инструкциям. Тем не менее он считает тревожной тенденцию, при которой люди начинают воспринимать ИИ как сознательных существ.
Ученый предупреждает, что субъективное ощущение «разумного собеседника» может подталкивать общество к опасным решениям. «Людям не так важно, какие механизмы работают внутри ИИ. Для них важно, что создается ощущение общения с разумной сущностью, у которой есть собственные цели и характер. Именно поэтому многие начинают эмоционально привязываться к своим ИИ», — отметил Бенджио, добавив, что такое восприятие «будет подталкивать к плохим решениям».
В качестве метафоры он предложил рассматривать ИИ как потенциально враждебную инопланетную форму разума. «Представьте, что на Землю прилетела инопланетная цивилизация, и мы понимаем, что у нее могут быть недобрые намерения. Мы дадим ей гражданство и права — или будем защищать свою жизнь?» — задался вопросом Бенджио.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.