«Википедию» наводнили ИИ-переводы с вымышленными фактами
Редакторы «Википедии» ввели новые ограничения для части авторов, которые использовали генеративный искусственный интеллект для перевода статей на другие языки. Причиной стали многочисленные галлюцинации.
Редакторы «Википедии» ввели новые ограничения для части авторов, которые использовали генеративный искусственный интеллект для перевода статей на другие языки. Причиной стали многочисленные галлюцинации.
Проблема возникла из-за работы некоммерческой организации Open Knowledge Association (OKA), которая занимается расширением и переводом статей Википедии. Организация выплачивает переводчикам ежемесячные стипендии и активно использует большие языковые модели для ускорения работы. На сайте OKA говорится, что ИИ применяется для автоматизации значительной части процесса перевода.
Редакторы «Википедии» начали замечать проблемы в ряде переводов. Например, в одной из статей о французской дворянской семье La Bourdonnaye перевод содержал ссылку на книгу с конкретной страницей, однако при проверке выяснилось, что на указанной странице этой информации нет. По словам редактора Ильяса Лебло, который провел выборочную проверку нескольких переводов, ошибки встречались регулярно.
«Я решил проверить несколько первых переводов из списка и уже обнаружил несколько ошибок. Некоторые статьи меняли источники или добавляли неподтвержденные данные без объяснений», — рассказал Лебло. В одном из материалов о выборах во французский Сенат 1879 года, по его словам, появились целые абзацы, основанные на источниках, никак не связанных с темой статьи.
В ходе обсуждения редакторы также выяснили, что многие переводчики OKA работают как подрядчики из стран глобального Юга и используют популярные ИИ-модели (ChatGPT, Gemini и ранее Grok), копируя текст статьи и вставляя его в чат-боты для автоматического перевода. Инструкции переводчикам предписывают проверять результаты и редактировать текст, полученные с помощью ИИ.
В результате сообщество решило не запрещать использование таких переводов полностью, но ужесточить правила для участников проекта OKA. Если переводчик получает четыре предупреждения за непроверяемый или ошибочный контент в течение шести месяцев, он может быть заблокирован. Материалы, добавленные таким пользователем, могут быть удалены, если другой редактор не возьмет ответственность за их проверку.
После критики OKA усилила систему контроля качества. Теперь завершенные переводы дополнительно проверяются другой языковой моделью, которая сравнивает текст с оригиналом и пытается выявить возможные несоответствия. Однако эксперты отмечают, что использование ИИ для проверки результатов другого ИИ также может приводить к ошибкам.
Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.
Уже давно понятно, что половина статей на редких языках - это ИИшный перевод верифицированных статей с английского. Поздно начали чистить