«Барсука не лизнешь дважды»: поиск Google выдумывает идиомы и смешит пользователей

Новый интернет-флешмоб выявил забавный, но тревожный недостаток Google AI Overviews: инструмент уверенно генерирует подробные объяснения для полностью выдуманных идиом, дополняя их вымышленными историями происхождения.

Оставить комментарий

Пользователи вводят в поисковую строку Google бессмысленные фразы, такие как «Лающая собака не может потушить пожар» или «Из авокадо нельзя сделать виноградное желе», добавляя слово «значение». В ответ AI Overviews выдает убедительные, но совершенно вымышленные определения, например, заявляя, что лающая собака — метафора бессмысленных действий, которые не приводят к результату.

Другие забавные примеры включают фразы вроде «Никогда не давайте свинье словарь», «Дважды не лизнешь барсука» и «Индейку из Cybertruck не достанешь», причем Google даже заявил, что Cybertruck от Tesla «не предназначен для доставки индейки на День благодарения» из-за своего футуристического дизайна. Этот тренд вызывает вопросы о достоверности информации, генерируемой искусственным интеллектом.

Представитель Google пояснил, что AI Overviews опирается на ведущие веб-результаты и стремится предоставить релевантный контекст даже для бессмысленных запросов. В случаях «информационного вакуума» система может генерировать ответы на основе ограниченного или нерелевантного веб-контента. Google работает над тем, чтобы ограничить подобные случаи и предотвратить вводящие в заблуждение ответы.

Эксперты отмечают, что большие языковые модели, такие как Gemini, лежащая в основе AI Overviews, созданы для генерации беглых и правдоподобных ответов, а не для проверки фактической точности. Эти модели предсказывают логические последовательности языка на основе обучающих данных, часто отдавая предпочтение связности, а не истине. Это приводит к «галлюцинациям» ИИ, когда система придумывает убедительную, но беспочвенную информацию.

Ранее при релизе AI Overviews предлагал добавлять клей в пиццу, чтобы сыр лучше держался. Хотя нынешняя мода на выдуманные идиомы кажется безобидной, она подчеркивает ключевой недостаток генеративного ИИ: склонность звучать авторитетно, выдавая вымысел. Эксперты призывают пользователей относиться к выводам ИИ скептически, рекомендуя сначала проверять, существует ли фраза, прежде чем искать ее значение.

Google говорит, что на ИИ можно сэкономить 122 часа работы в год
По теме
Google говорит, что на ИИ можно сэкономить 122 часа работы в год
Нашумевший ИИ-бот для техсобесов выдает обычные ответы ChatGPT
По теме
Нашумевший ИИ-бот для техсобесов выдает обычные ответы ChatGPT
Google Gemini не может догнать ChatGPT по популярности
По теме
Google Gemini не может догнать ChatGPT по популярности

Читать на dev.by