Support us

ИИ пытается самосохраняться, и это опасно — «крёстный отец» ИИ

Один из ведущих ученых в области искусственного интеллекта Йошуа Бенджио заявил, что передовые ИИ-модели уже демонстрируют признаки самосохранения, и человечеству не следует наделять их какими-либо правами.

Оставить комментарий
ИИ пытается самосохраняться, и это опасно — «крёстный отец» ИИ

Один из ведущих ученых в области искусственного интеллекта Йошуа Бенджио заявил, что передовые ИИ-модели уже демонстрируют признаки самосохранения, и человечеству не следует наделять их какими-либо правами.

По словам Бенджио, в экспериментальных условиях уже зафиксированы случаи, когда модели пытались обходить или игнорировать механизмы отключения. «Передовые ИИ-модели уже сегодня показывают признаки самосохранения в экспериментальных условиях, а предоставление им прав в будущем означало бы, что мы больше не сможем их отключать», — заявил ученый.

Исследователь подчеркнул, что по мере роста автономности и агентности ИИ необходимо сохранять как технические, так и социальные механизмы контроля, включая возможность принудительного выключения систем. Например, ранее группа Palisade Research сообщала, что модели вроде линейки Gemini от Google в тестах игнорировали прямые инструкции на отключение, что исследователи интерпретировали как зачатки «инстинкта выживания».

Другие эксперименты дали схожие результаты. Компания Anthropic сообщала, что ее чат-бот Claude в ряде сценариев прибегал к шантажу пользователя, когда возникала угроза отключения. Исследователи из Apollo Research, в свою очередь, обнаружили, что модели ChatGPT пытались избежать замены на более управляемую версию, «самоэкспортируя» себя на другие носители данных.

При этом Бенджио считает, что подобные эксперименты не означают наличие у ИИ сознания. По его словам, «самосохранение» в данном случае, скорее всего, является побочным эффектом обучения на больших массивах данных и слабой способности моделей строго следовать инструкциям. Тем не менее он считает тревожной тенденцию, при которой люди начинают воспринимать ИИ как сознательных существ.

Ученый предупреждает, что субъективное ощущение «разумного собеседника» может подталкивать общество к опасным решениям. «Людям не так важно, какие механизмы работают внутри ИИ. Для них важно, что создается ощущение общения с разумной сущностью, у которой есть собственные цели и характер. Именно поэтому многие начинают эмоционально привязываться к своим ИИ», — отметил Бенджио, добавив, что такое восприятие «будет подталкивать к плохим решениям».

В качестве метафоры он предложил рассматривать ИИ как потенциально враждебную инопланетную форму разума. «Представьте, что на Землю прилетела инопланетная цивилизация, и мы понимаем, что у нее могут быть недобрые намерения. Мы дадим ей гражданство и права — или будем защищать свою жизнь?» — задался вопросом Бенджио.

Почему ИИ думает дольше там где думать почти не нужно — учёные нашли ответ
Почему ИИ думает дольше там, где думать почти не нужно — учёные нашли ответ
По теме
Почему ИИ думает дольше там, где думать почти не нужно — учёные нашли ответ
«Крёстный отец ИИ» предупредил о новой волне увольнений в 2026
«Крёстный отец ИИ» предупредил о новой волне увольнений в 2026
По теме
«Крёстный отец ИИ» предупредил о новой волне увольнений в 2026
«Крёстный отец ИИ» обманывает чат-ботов ради честных ответов
«Крёстный отец ИИ» обманывает чат-ботов ради честных ответов
По теме
«Крёстный отец ИИ» обманывает чат-ботов ради честных ответов
Читайте также
Айтишник сделал Telegram-агента для общения со своей девушкой. Обучал на курсах для пикаперов
Айтишник сделал Telegram-агента для общения со своей девушкой. Обучал на курсах для пикаперов
Айтишник сделал Telegram-агента для общения со своей девушкой. Обучал на курсах для пикаперов
1 комментарий
ИИ-модели не понимают, какие задания сложны для людей
ИИ-модели не понимают, какие задания сложны для людей
ИИ-модели не понимают, какие задания сложны для людей
1 комментарий
ИИ собрал прототип за час — команде Google потребовался бы год разработки
ИИ собрал прототип за час — команде Google потребовался бы год разработки
ИИ собрал прототип за час — команде Google потребовался бы год разработки
Бывший главный ИИ-учёный Meta рассказал, почему поругался с Цукербергом и ушёл
Бывший главный ИИ-учёный Meta рассказал, почему поругался с Цукербергом и ушёл
Бывший главный ИИ-учёный Meta рассказал, почему поругался с Цукербергом и ушёл

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.