Support us

В Нью-Йорке приняли закон, который запрещает использовать ИИ для хайринга без предупреждения

Власти города Нью-Йорк приняли закон, который регулирует использование компаниями искусственного интеллекта при найме и продвижении персонала по службе, пишет New York Times. Новые правила должны сделать эти процессы более справедливыми для потенциальных и действующих сотрудников.

5 комментариев

Власти города Нью-Йорк приняли закон, который регулирует использование компаниями искусственного интеллекта при найме и продвижении персонала по службе, пишет New York Times. Новые правила должны сделать эти процессы более справедливыми для потенциальных и действующих сотрудников.

Так, работодателям и рекрутинговым фирмам запрещается применять тот или иной «автоматизированный инструмент для решений о найме, если он не проходил проверку на предвзятость в течение одного года его использования, информация о его проверке на предвзятость не находится в открытом доступе», и если сотрудников и соискателей не предупреждают о его использовании. Речь идёт о предвзятостях по национальному или расовому и гендерному признакам. Компаний-нарушителей ждёт штраф.

Закон был принят ещё в 2021 году, но его вступление в силу постоянно затягивалось из-за необходимости уточнения того, какие именно инструменты он должен охватывать и что должна представлять из себя проверка и её итоги. Окончательная версия была опубликована в середине апреля, а заработает он 5 июля.

Это первый подобный закон в стране. Критики недовольны формулировкой «автоматизированный инструмент для принятия решений о найме» — они считают, что оно слишком расплывчатое и что работодатели всё равно продолжат применять «предвзятые» инструменты, если окончательное решение о найме будет принимать человек.

Две трети сотрудников не хотят устраиваться на работу если в хайринге участвует ИИ
Две трети сотрудников не хотят устраиваться на работу, если в хайринге участвует ИИ 
По теме
Две трети сотрудников не хотят устраиваться на работу, если в хайринге участвует ИИ

Как отмечает Dice, работодатели много лет пытаются автоматизировать процесс хайринга, и проблема предвзятости существовала с самого начала. Например, в 2018 году Amazon пыталась построить рекрутинговую платформу на базе машинного обучения. За основу была взята база резюме за десять лет. Сразу же обнаружился сдвиг в пользу кандидатов мужского пола, поскольку на них приходилось большинство резюме, и алгоритмы посчитали их более предпочтительными кандидатами. Проект был свёрнут.

Между тем компании активно пользуются ИИ при найме: согласно исследованию 2022 года, примерно четверть компаний прибегает к помощи инструментов для автоматизации и/или на основе ИИ в эйчарских задачах.

Amazon нанимала больше чем нужно из-за поломанного процесса публикации вакансий
Amazon нанимала больше, чем нужно, из-за поломанного процесса публикации вакансий
По теме
Amazon нанимала больше, чем нужно, из-за поломанного процесса публикации вакансий
Место солидарности беларусского ИТ-комьюнити

Далучайся!

Читайте также
NYT: ИТ-рекрутерам стало сложно найти работу
NYT: ИТ-рекрутерам стало сложно найти работу
NYT: ИТ-рекрутерам стало сложно найти работу
1 комментарий
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
Meta разработала ИИ для «чтения мыслей»
Meta разработала ИИ для «чтения мыслей»
Meta разработала ИИ для «чтения мыслей»
IBM вынуждает ненужных сотрудников увольняться под угрозой ссылки
IBM вынуждает ненужных сотрудников увольняться под угрозой ссылки
IBM вынуждает ненужных сотрудников увольняться под угрозой ссылки
1 комментарий

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Anonymous
Anonymous
0

Речь идёт о предвзятостях по национальному или расовому и гендерному признакам.

Под "предвзятостью" тут понимается то, что алгоритму н***ать какого ты пола или расы - он смотрит исключительно на то, как ты работаешь. И потому повесточка в опасности!

fallinmyhand
fallinmyhand Патриот в Мерси Софтваре
0

алгоритму да - плевать, а вот ИИ будет делать как обучен, а можно обучить чтобы игнорировал какие то страны или цвет кожи

1

а главное - если датасет на котором обучался потерян, нифига не докажешь справедливо или нет :)

fallinmyhand
fallinmyhand Патриот в Мерси Софтваре
0

ага, можно говорить - это просто матрица чисел так решила

0

бумагомаратели