devby 17 лет! Вспоминаем переходный возраст и делимся виш-листом
Support us

В Нью-Йорке приняли закон, который запрещает использовать ИИ для хайринга без предупреждения

Власти города Нью-Йорк приняли закон, который регулирует использование компаниями искусственного интеллекта при найме и продвижении персонала по службе, пишет New York Times. Новые правила должны сделать эти процессы более справедливыми для потенциальных и действующих сотрудников.

5 комментариев

Власти города Нью-Йорк приняли закон, который регулирует использование компаниями искусственного интеллекта при найме и продвижении персонала по службе, пишет New York Times. Новые правила должны сделать эти процессы более справедливыми для потенциальных и действующих сотрудников.

Так, работодателям и рекрутинговым фирмам запрещается применять тот или иной «автоматизированный инструмент для решений о найме, если он не проходил проверку на предвзятость в течение одного года его использования, информация о его проверке на предвзятость не находится в открытом доступе», и если сотрудников и соискателей не предупреждают о его использовании. Речь идёт о предвзятостях по национальному или расовому и гендерному признакам. Компаний-нарушителей ждёт штраф.

Закон был принят ещё в 2021 году, но его вступление в силу постоянно затягивалось из-за необходимости уточнения того, какие именно инструменты он должен охватывать и что должна представлять из себя проверка и её итоги. Окончательная версия была опубликована в середине апреля, а заработает он 5 июля.

Это первый подобный закон в стране. Критики недовольны формулировкой «автоматизированный инструмент для принятия решений о найме» — они считают, что оно слишком расплывчатое и что работодатели всё равно продолжат применять «предвзятые» инструменты, если окончательное решение о найме будет принимать человек.

Две трети сотрудников не хотят устраиваться на работу если в хайринге участвует ИИ
Две трети сотрудников не хотят устраиваться на работу, если в хайринге участвует ИИ 
По теме
Две трети сотрудников не хотят устраиваться на работу, если в хайринге участвует ИИ

Как отмечает Dice, работодатели много лет пытаются автоматизировать процесс хайринга, и проблема предвзятости существовала с самого начала. Например, в 2018 году Amazon пыталась построить рекрутинговую платформу на базе машинного обучения. За основу была взята база резюме за десять лет. Сразу же обнаружился сдвиг в пользу кандидатов мужского пола, поскольку на них приходилось большинство резюме, и алгоритмы посчитали их более предпочтительными кандидатами. Проект был свёрнут.

Между тем компании активно пользуются ИИ при найме: согласно исследованию 2022 года, примерно четверть компаний прибегает к помощи инструментов для автоматизации и/или на основе ИИ в эйчарских задачах.

Amazon нанимала больше чем нужно из-за поломанного процесса публикации вакансий
Amazon нанимала больше, чем нужно, из-за поломанного процесса публикации вакансий
По теме
Amazon нанимала больше, чем нужно, из-за поломанного процесса публикации вакансий
Читайте также
Математик обошёл ИИ в решении древней «проблемы поцелуев»
Математик обошёл ИИ в решении древней «проблемы поцелуев»
Математик обошёл ИИ в решении древней «проблемы поцелуев»
Секса не будет: Microsoft отказалась от эротического ИИ, в отличие от OpenAI
Секса не будет: Microsoft отказалась от эротического ИИ, в отличие от OpenAI
Секса не будет: Microsoft отказалась от эротического ИИ, в отличие от OpenAI
«Мы живём в 1999-м»: инвесторы выбирают тактику эпохи доткомов на рынке ИИ
«Мы живём в 1999-м»: инвесторы выбирают тактику эпохи доткомов на рынке ИИ
«Мы живём в 1999-м»: инвесторы выбирают тактику эпохи доткомов на рынке ИИ
1 комментарий
В Instagram появился генератор фото для сториз
В Instagram появился генератор фото для сториз
В Instagram появился генератор фото для сториз

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Anonymous
Anonymous
0

Речь идёт о предвзятостях по национальному или расовому и гендерному признакам.

Под "предвзятостью" тут понимается то, что алгоритму н***ать какого ты пола или расы - он смотрит исключительно на то, как ты работаешь. И потому повесточка в опасности!

fallinmyhand
fallinmyhand Патриот в Мерси Софтваре
0

алгоритму да - плевать, а вот ИИ будет делать как обучен, а можно обучить чтобы игнорировал какие то страны или цвет кожи

1

а главное - если датасет на котором обучался потерян, нифига не докажешь справедливо или нет :)

fallinmyhand
fallinmyhand Патриот в Мерси Софтваре
0

ага, можно говорить - это просто матрица чисел так решила

0

бумагомаратели