Кошки на луне и клей для пиццы: Google вручную удаляет странные ответы своего ИИ-поисковика
После интеграции ИИ-функций в поисковик Google пользователи начали замечать странные ответы в поисковой выдаче. Компания в спешке удаляет ИИ-обзоры на конкретные поисковые запросы.
Google уже несколько месяцев тестирует ИИ-функцию Search Generative Experience. По словам гендиректора Google Сундар Пичаи, с мая прошлого года сервис обработал более миллиарда запросов. За период тестирования удалось на 80% снизить стоимость функции благодаря «аппаратным, инженерным и техническим прорывам».
После того, как новый поисковой инструмент AI Overview стал доступен пользователям США, в соцсетях стали появляться обзоры на ответы ИИ. Например, поисковик предложил использовать клей для закрепления начинки на пицце или съедать по камню в день для удовлетворения потребностей организма в минералах.
Журналист Associated Press спросил Google, были ли когда-нибудь кошки на Луне, и система ответила утвердительно: «Да, астронавты встречали кошек на Луне, играли с ними и заботились о них». ИИ добавил: «Например, Нил Армстронг сказал: «Один маленький шаг для человека», имея в виду кошачий шаг. А еще Базз Олдрин держал кошек на корабле «Аполлон-11».
Эти примеры — иллюстрация распространенной проблемы «галлюцинаций». Языковые модели, используемые в системах ИИ, могут придумывать информацию, основываясь на данных, на которых они обучались. Эти данные могут содержать предубеждения и ошибки, система будет повторять их и изобретать новые.
Несмотря на критику, компания продолжает настаивать, что поисковик в большинстве случаев предоставляет пользователям «высококачественную информацию». Представитель компании объяснил ошибки «нестандартными запросами», а также обвинил пользователей в публикации фейковых скринов, поскольку сотрудники не смогли воспроизвести эти ответы.
Google признала, что удаляет сгенерированные обзоры по определенным запросам, «где это необходимо в соответствии с нашей политикой в отношении контента». Неудачные ответы ИИ используют при разработке улучшений для поисковика, некоторые из них «уже начали внедряться».
Эксперты по искусственному интеллекту сомневаются, что возможно создать ИИ-сервис с точностью 100%. По мнению профессора Гэри Маркуса, достичь точности в 80% достаточно просто, однако преодолеть последние 20% — чрезвычайно сложная задача. Для этого алгоритмы должны научиться «рассуждать», насколько правдоподобна та или иная информация.
Профессор лингвистики Вашингтонского университета Эмили Бендер ранее предупреждала Google о потенциальных проблемах при использовании языковых моделей. Ученый говорила, что системы ИИ могут усугублять существующий в обществе расизм, сексизм и другие предрассудки и стереотипы.
Другая проблема, связанная с ИИ-поиском, менее заметна. Выдача готовых ответов лишает людей возможности самостоятельного поиска информации. У пользователя нет необходимости посещать множество ресурсов и сопоставлять источники, если ему предлагается готовый ответ. Это приводит к снижению пользовательской активности и потере трафика для владельцев многих сайтов.
Читать на dev.by