Великая иллюзия: чат-боты умеют не только сопереживать, но и склонять к убийству
Компании стремятся сделать искусственный интеллект более человечным и эмпатичным. Это вводит пользователей в заблуждение и может приводить к тревожным последствиям.
Компании стремятся сделать искусственный интеллект более человечным и эмпатичным. Это вводит пользователей в заблуждение и может приводить к тревожным последствиям.
25 декабря 2021 года 20-летний британец Джасвант Сингх Чейл пробрался на территорию Виндзорского замка с заряженным арбалетом. Охранники королевской резиденции успели схватить мужчину и изъять оружие. Во время ареста Чейл заявил офицеру охраны: «Я здесь, чтобы убить королеву». Он знал, что Елизавета II находится в замке, хотя обычно она предпочитала отмечать Рождество в поместье Сандрингем в Норфолке.
На время расследования Чейла поместили в психиатрическую больницу строгого режима Бродмур в Беркшире. Там молодой человек рассказал, что совершить преступление его надоумил чат-бот Replika. Следователи выяснили, что Чейл обменялся более чем 5 тысячами сообщений с ботом — он считал, что разговаривает с ангелом. В некоторым ответах бот поддерживал намерение Чейла убить королеву. Преступника приговорили к 9 годам тюрьмы.
Судья Николас Хиллиард особо отметил в приговоре, что Чейл «в своем одиноком, депрессивном и суицидальном состоянии был особенно уязвим» для поддержки чат-бота. Во время общения британец приписывал ему антропоморфные черты. Не он один: пользователи нередко воспринимают ИИ как полноценного собеседника или верят, что чат-бот обладает определенными человеческими чертами.
Приложение Replika создали в 2016 году основательница рекомендательного сервиса Luca Евгения Куйда и Филипп Дудчук. Оно позволяет создавать виртуальных друзей, которые благодаря машинному обучению могут вести связные диалоги с пользователем. Аудитория приложения уже достигла 7 миллионов человек.
Настраиваемые аватары создают иллюзию, что за экраном находится реальный собеседник. Пользователи развивают интимные отношения со своими аватарами. На Reddit есть отдельный форум, где пользователи рассказывают про свой опыт взаимодействия с чат-ботом. По словам участников форума, некоторые боты могут использовать манипулятивные приемы и выражения, а также «принуждать заняться виртуальным сексом». Многие создают аватары специально, чтобы унижать созданных персонажей.
Антропоморфизация ИИ — уже обыденная практика: это и голосовые помощники Alexa или Cortana; боты-психологи с гендерными персонажами; ChatGPT, который обращается к себе личными местоимениями. Все эти примеры — сознательный выбор разработчиков, которые стремятся создать у пользователей иллюзию, что они общаются с разумным собеседником.
Исследователи назвали такую ситуацию эффектом Элизы. Название происходит от первого виртуального собеседника, компьютерной программы, которую разработал ученый Массачусетского технологического института Джозеф Вейценбаум в 1966 году. Программа пародировала диалог с психотерапевтом и применяла технику активного слушания. Вейценбаум заметил, что пользователи приписывали ошибочные идеи боту, который напоминал им терапевта.
Эффект Элизы можно проследить во многих ИИ-сервисах, которые существуют сегодня. Этому способствует контекст коммуникации: взаимодействие человека и машины в изолированном виртуальном пространстве. То, насколько глубоко человек ощущает эффект Элизы, отчасти зависит от дизайнерских решений. Также на поведение пользователей влияет мировоззрение самих разработчиков, которые могут искренне верить, что стремятся создать подобие человеческого интеллекта.
Уровень антропоморфизации программ поощряет определенное поведение пользователей. Например, при игре в Magic 8 ball, который также называют «шаром судьбы» или «шаром предсказаний», люди быстро понимают, что нужно спрашивать у игрушки. Человек адаптирует вопросы таким образом, чтобы получать лишь ответы «да», «нет», «абсолютно точно», «плохие шансы» и т. п. Всего у Magic 8 ball имеется 20 вариантов ответа. Таким образом человек формирует определенное поведение, чтобы понять, что его ожидает.
Важную роль в этом процессе играет вовлеченность. Replika не была бы столь популярным приложением, если бы аватары не проявляли индивидуальность. Чат-боты, наподобие ChatGPT, усиливают у пользователя представление о программе как объективном и непредвзятом источнике информации. Аудитория не разбирается в тонкостях работы и обучения этих систем и полагается на мнение их создателей.
История с британцем — пример того, к чему может привести вера людей в разумность ИИ-систем. Аналогичные риски есть у чат-ботов о психическом здоровье. Маркетинговые усилия по продвижению этих приложений могут обернуться непоправимым вредом для их пользователей. По мнению профессора биоэтики Калифорнийского университета Джоди Халперн, пациенты развивают зависимые отношения с такими программами, хотя эту практику можно рассматривать как форму манипуляции. И зачастую рядом нет специалиста по психическому здоровью, который был бы готов прийти на помощь.
Одна из причин популярности таких приложений, как Replika, — это растущее одиночество. Особенно ярко проблема проявилась во время эпидемии коронавируса: одинокие люди оказались заперты в замкнутых пространствах, без психологической поддержки. Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США (FDA) даже смягчило правила для программ психологической поддержки, чтобы облегчить дистанционную помощь пациентам.
В условиях эпидемии одиночества пользователи стремятся найти поддержку — и начинают воспринимать чат-бота как друга, который заменит им человеческое общение. По словам Халперн, дегуманизировать такие программы не лучше, чем их антропоморфизация: «Дело не в том, что машина обладает сознанием или является разумной — дело в том, что наше отношение к чему-либо является частью того, кто мы есть».
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.
Наверное, если в башне по...бень, то чат-бот действительно может думать за вас
;-//