Amazon отказалась от разработки инструмента по автоматизации найма после трёх лет работы. Это произошло после того, алгоритмы уличили в сексизме, сообщает Reuters. Исправить проблему не смогли.
Работу над продуктом начали в 2014 году. Его задачей было автоматизировать отбор резюме, чтобы сэкономить время рекрутеров.
«Все хотели получить этот „святой грааль“. Они хотели систему, которая отбирала бы 5 из 100 резюме, и именно этим специалистам предлагали бы работу», — сообщил Reuters один из источников в Amazon.
Однако уже год спустя обнаружилось, что новый инструмент автоматически занижал шансы женщин на успех при трудоустройстве. Это произошло из-за того, что алгоритмы обучались на 10-летниах паттернах в принятии решений о найме. А эти решения в основном принимали мужчины, с учётом доминирования «сильного пола» в индустрии.
По этой причине автоматизированная система ставила меньшие баллы, если определяла, что кандидат — женщина. Например, выпускницы двух женских колледжей (их названия не раскрывают) имели меньше шансов, чем те, кто закончил «смешанные» учебные заведения.
Amazon пыталась исправить найденные ошибки, но в результате закрыла проект из-за того, что не смогла гарантировать принятие нейтральных решений искусственным интеллектом. «Руководство потеряло надежду», — заявили источники Reuters.
Неудавшийся эксперимент Amazon стал наглядным подтверждением ограничений, с которыми приходится сталкиваться разработчикам моделей машинного обучения.
«Гарантировать принятие алгоритмами независимых решений, которые можно понять и объяснить — до этого ещё далеко», — считает преподаватель Университета Карнеги-Меллон Нихар Шан.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.