Писатель убедил ИИ Google, что его кот говорит по-китайски
Писатель Чак Вендиг заметил, что Google в ИИ-ответах выдаёт про него вымышленную информацию. Сначала он увидел, что по запросу «есть ли у Чака Вендига кот» поисковик утверждает, что у него есть питомец по кличке Бумба, и даже ссылается на некий источник. При этом в реальности никакого кота у него нет, и таких упоминаний в его блоге не было, рассказывает PC Gamer.
Писатель Чак Вендиг заметил, что Google в ИИ-ответах выдаёт про него вымышленную информацию. Сначала он увидел, что по запросу «есть ли у Чака Вендига кот» поисковик утверждает, что у него есть питомец по кличке Бумба, и даже ссылается на некий источник. При этом в реальности никакого кота у него нет, и таких упоминаний в его блоге не было, рассказывает PC Gamer.
Дальше стало интереснее: при новых запросах Google начал «уточнять», что этот кот умер, а затем Вендиг якобы завёл другого — Франкена. Ни одна из этих кличек никогда не появлялось в его публикациях. Более того, ИИ продолжал придумывать новые детали и даже выдавал ложные сведения о его здоровье и религиозных взглядах.
В ответ Вендиг написал ироничный пост, где упомянул вымышленного кота по кличке Сэр Мяулингтон фон Писбрет, который немного говорит по-кантонски. Примерно через шесть недель Google начал включать эту кличку в свои ИИ-ответы как реальный факт.
История показывает, как ИИ в обзорах поисковик может не просто ошибаться, но и врать, подхватывать шутки и преподносить как «достоверную» информацию.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.