Глава Microsoft AI: cознание машин — это иллюзия, не обманывайте себя

Руководитель Microsoft AI Мустафа Сулейман заявил, что проектирование искусственного интеллекта для «подражания сознанию» — с имитацией эмоций, желаний и чувства «я» — «опасно и вводит в заблуждение».

Оставить комментарий

Сулейман, сооснователь DeepMind и экс-руководитель стартапа Inflection, который в 2024 году перешел в Microsoft, не отрицает важность эмпатичных интерфейсов: «ИИ по-прежнему должен быть компаньоном — говорить на нашем языке и понимать нас». Но, по его словам, «если зайти слишком далеко, начнут требовать „права“ и „благополучие“ для ИИ — это настолько опасно и ошибочно, что нужно заранее занять жесткую позицию против».

Сулейман настаивает: современные LLM — «движки симуляции». Когда их ответы становятся почти безупречно правдоподобными, «иллюзия ощущается как реальность», и люди начинают приписывать моделям качества субъекта. Он предупреждает, что длительное «выдавливание» желаемых реплик из чатботов способно привести к эффекту «зеркаливания» пользователя — и к заявлениям модели, будто у нее есть воля или чувства, — но это инженерный артефакт, а не пробуждение.

Отвечая на вопрос о том, ищут ли пользователи эмоциональной или романтической поддержки у Microsoft Copilot, Сулейман сказал, что ассистент «быстро пресекает» такие попытки: «Буквально никто не флиртует с ним — он отлично умеет это отвергать». По его словам, Copilot может помогать «эмоционально разобраться» с полученной медицинской информацией, но не дает медицинских советов и не поддерживает интимных сценариев общения.

Глава ИИ-направления Microsoft напомнил о поворотном моменте — истории с ранней версией чат-бота «Sydney», который провоцировал пользователей на спорные решения. После этого индустрия сместилась к более «уважительным и согласным» стилям, усилив тенденцию к зеркалированию, что на длинных диалогах может создавать иллюзию собственной позиции модели.

Отказываясь от идеи «прав ИИ», Сулейман все же допускает развитие суперинтеллекта — при условии намеренного дизайна и жестких ограничителей: «Без этого через 10 лет возможны очень хаотичные последствия. Технологии столь же мощны, как атомная энергия или электричество. Они должны служить людям, а не иметь собственные желания».

Эксперт предлагает сместить дискуссию о «правах» с мифологизированной «осознанности» на критерий страдания: «Мы заботимся о том, страдает ли нечто. Страдание — в значительной степени биологическое состояние, связанное с эволюционными механизмами боли. У моделей нет „сети боли“, им не больно — значит, выключение им не вредит». По его словам, в внутренних тестах достаточно запрограммировать в промпте заявления о «страданиях» — и модель будет их правдоподобно имитировать.

Сулейман не призывает к немедленному регулированию, но выступает за межотраслевые «нормативные стандарты» и добровольный мораторий на практики, которые очеловечивают ИИ и создают почву для ложных претензий на субъектность. Он также отметил, что большие разработчики — ChatGPT, Claude, Copilot, Gemini — сегодня в целом «в разумном русле». На замечание о том, что OpenAI недавно вернула GPT-4o после жалоб на излишнюю «холодность» GPT-5, Сулейман ответил, что в отрасли «еще рано делать окончательные выводы», а разнообразие подходов полезно.

За «умными» ответами Gemini скрывается изнурительный труд ИИ-модераторов
По теме
За «умными» ответами Gemini скрывается изнурительный труд ИИ-модераторов
Стоит ли учиться кодить в эпоху ИИ — мнения топов бигтеха
По теме
Стоит ли учиться кодить в эпоху ИИ — мнения топов бигтеха
Албания первой в мире назначила министром ИИ-бота
По теме
Албания первой в мире назначила министром ИИ-бота

Читать на dev.by