Исследование: ИИ для найма не способствует разнообразию сотрудников

AI_Jobs-min
AI_Jobs-min

Ученые из Кембриджского университета заявили, что ПО для подбора персонала на основе ИИ снижает разнообразие новых сотрудников на рабочем месте. Об этом пишет The Register.

Исследователи протестировали популярный инструмент для найма, использующий фотографии лиц кандидатов для оценки личности. Всего программа анализирует пять ключевых качеств:

  • экстраверсия;
  • покладистость;
  • открытость;
  • добросовестность;
  • невротизм.

Ученые выяснили, что на прогнозы инструмента повлияли изменения выражения лица, освещения и фона, а также выбор одежды. Эти особенности не имеют ничего общего со способностями соискателя, поэтому использование ИИ для целей найма ошибочно, утверждают исследователи.

«Тот факт, что изменения в освещении, насыщенности и контрастности влияют на вашу личностную оценку, является доказательством этого», — сказала научная сотрудница Центра гендерных исследований Кембриджского университета Керри Маккерет.

По ее словам, результаты эксперимента подтверждаются предыдущими работами. Они показали, что ношение очков и платка во время видеоинтервью или добавление книжной полки на заднем плане может снизить баллы соискателя за добросовестность и невротизм, отметила Маккерет.

Ученая считает, что эти инструменты, вероятно, обучены искать атрибуты, связанные с предыдущими успешными кандидатами. Следовательно, ПО с большей вероятностью будет рекомендовать похожих людей, а не способствовать разнообразию.

«По мере того, как инструменты учатся на ранее существовавшем наборе данных, создается петля обратной связи между идеальным сотрудником и критериями, используемыми автоматизированными инструментами подбора персонала», — сказала Маккерет.

Исследователи считают, что подобные технологии должны регулироваться более строго.

«Мы обеспокоены тем, что некоторые продавцы заворачивают “змеиное масло” в блестящую упаковку и продают их ничего не подозревающим покупателям», — сказала соавтор исследования Элеонора Дрэдж.

Она отметила, что подобные «недобросовестные» продукты практически не подотчетны.

По словам Маккерет, законопроект Европейского Союза об искусственном интеллекте относит инструменты для найма к «высокорисковым». Однако в правилах не прописаны конкретные шаги для противодействия предвзятости ПО.

«Мы считаем, что […] регулирование HR-инструментов на базе искусственного интеллекта должно играть гораздо более заметную роль в повестке дня политики ИИ», — сказала ученая.

Напомним, в сентябре Еврокомиссия предложила усилить ответственность за вред, нанесенный ИИ-инструментами.

В июне ФБР заявило о растущем количестве случаев использования дипфейков на онлайн-собеседованиях.

В мае Белый Дом предупредил об угрозах применения ИИ-инструментов в рекрутинге.

Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK