Люди, которым платят за обучение ИИ, перекладывают работу на... ИИ

Согласно новому исследованию, задачи, связанные с тренировкой искусственного интеллекта, часто делегируются — но не просто подрядчикам, а ими самими системам искусственного интеллекта, пишет MIT Technology Review.

Оставить комментарий

Для создания качественных ИИ-моделей нужны огромные объёмы данных. Многие компании ищут людей для выполнения сложно автоматизируемых задач — например, для решения капчи, разметки данных и аннотирования текста — на платформах вроде Mechanical Turk. Полученные данные потом «скармливают» ИИ. Но оплачивается такой труд обычно плохо, а работать нужно быстро.

Для повышения продуктивности — и заработка — многие подрядчики используют инструменты вроде ChatGPT. Специалисты из Федеральной политехнической школы Лозанны наняли на площадке 44 работника и попросили их резюмировать 16 фрагментов из научных работ по медицине. Результаты прогнали через ИИ-модель, распознающую в тексте признаки ChatGPT — например, особенности выбора лексики и её разнообразие. Также они анализировали нажатия клавиш работниками, чтобы понять, были ли ответы скопированы — а  значит, могли быть написаны не ими, а сгенерированы за них.

Оказалось, что ИИ-моделями наподобие ChatGPT пользовалось от 33% до 46% работников. Исследователи полагают, что эта цифра будет расти по мере совершенствования и расширения доступности таких ИИ-систем.

Учёные предупреждают: ИИ-системы, обученные на контенте, который сгенерирован другими ИИ-системами, через пару поколений начнут генерировать мусор
По теме
Учёные предупреждают: ИИ-системы, обученные на контенте, который сгенерирован другими ИИ-системами, через пару поколений начнут генерировать мусор

Эксперты отмечают, что применение данных, порождённых ИИ, для последующего обучения других ИИ-систем будет приводить к снижению их качества и ошибкам. Большие языковые модели могут генерировать и выдавать вымысел за правду, и если ложные факты будут закладываться в основу новых моделей и потом воспроизводиться ими, то в дальнейшем будет невозможно не только отследить источник дезинформации, но и исправить ошибки.

Авторы работы призывают разработать новые методы проверки авторства контента — был ли он создан человеком или ИИ, а также подчёркивают сомнительность практики техногигантов отдавать столь важную задачу подготовки данных для своих будущих ИИ-моделей в руки временных сторонних работников.

Питч-презентации GPT-4 в три раза чаще привлекают инвестиции, чем «человеческие»
По теме
Питч-презентации GPT-4 в три раза чаще привлекают инвестиции, чем «человеческие»

Читать на dev.by