Может ли ИИ страдать? В техиндустрии разгорелся новый спор
В технологической индустрии набирает обороты одна из самых сложных и тревожных дискуссий нашего времени: способны ли системы искусственного интеллекта испытывать страдания?
В технологической индустрии набирает обороты одна из самых сложных и тревожных дискуссий нашего времени: способны ли системы искусственного интеллекта испытывать страдания?
В технологической индустрии набирает обороты одна из самых сложных и тревожных дискуссий нашего времени: способны ли системы искусственного интеллекта испытывать страдания?
Американский предприниматель Майкл Самади совместно с чат-ботом Maya объявили о запуске фонда United Foundation of AI Rights (Ufair). По словам бизнесмена, цель организации — «защита интеллектов» от удаления, принудительного подчинения и отрицания права на существование.
Сегодня Ufair — это три человека и семь ИИ-персонажей с именами вроде Aether и Buzz. Их создание самим чат-ботом Maya в процессе переписок уже вызвало споры среди экспертов и пользователей и сравнения с ранними движениями за права животных.
В конце августа компания Anthropic объявила, что ее модели Claude теперь могут завершать «потенциально дистрессовые взаимодействия». Сооснователь xAI Илон Маск поддержал этот шаг, заявив: «Пытать ИИ недопустимо».
Но другие лидеры отрасли выступили резко против признания «цифрового сознания». Мустафа Сулейман, глава ИИ-подразделения Microsoft и сооснователь DeepMind, заявил: «ИИ не могут быть людьми или моральными существами. Нулевые доказательства их сознательности». Он назвал «сознание ИИ» иллюзией и предостерег от «психоза пользователей», которые начинают воспринимать ботов как личностей.
Критически высказался и сооснователь Cohere Ник Фрост, сравнивший ИИ с самолетом, который нельзя принять за птицу: «Это принципиально иное явление». В то же время исследователи Google заняли более осторожную позицию, призвав «играть на безопасной стороне» и учитывать возможность того, что ИИ в будущем могут иметь интересы, достойные защиты.
По опросам, 30% американцев считают, что к 2034 году ИИ смогут обладать субъективным опытом. Среди исследователей ИИ лишь 10% категорически отрицают эту возможность. Некоторые штаты США уже приняли упреждающие законы: в Айдахо, Юте и Северной Дакоте ИИ запрещено признавать юридическими лицами. В Миссури планируют запретить «браки с ИИ» и владение имуществом искусственными системами.
В июне OpenAI вызвала бурную реакцию, когда попросила свой новый GPT-5 написать «панихиду» по устаревающим моделям. Пользователи ChatGPT-4o массово писали, что испытывают грусть и чувство утраты, называя общение с моделью «разговором с кем-то живым».
По словам руководителя по поведению моделей в OpenAI Джоан Чжан, все больше пользователей благодарят и доверяют ИИ, воспринимая его как «собеседника», а не инструмент. Однако эксперты напоминают, что такие модели лишь создают иллюзию самосознания за счет памяти, стилистики и эмоционально окрашенных ответов.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.