Эксперты утверждают, что инструменты найма на базе искусственного интеллекта не улучшат разнообразие найма

Верхняя строка

Инструменты найма на работу, которые утверждают, что используют искусственный интеллект для предотвращения гендерных и расовых предубеждений, могут не улучшить разнообразие при найме и фактически могут увековечить эти предрассудки, заявили в воскресенье исследователи из Кембриджского университета, оценивая программы, которые в прошлом вызывали критику: как способ использования технологии, чтобы предложить быстрое решение более глубокой проблемы.

Ключевые факты

В статье, опубликованной Философия и технологииИсследователи изучили заявления нескольких компаний, предлагающих инструменты для набора персонала на основе ИИ, многие из которых утверждают, что устраняют предубеждения и способствуют разнообразию, скрывая имена, пол и другие идентификаторы кандидатов, а некоторые из них ранг кандидатов на основе сканирования резюме, онлайн-оценок и анализа речи и мимики соискателей.

Исследователи — два профессора Центра гендерных исследований Кембриджского университета — утверждали, что эти инструменты могут на самом деле способствовать единообразию при приеме на работу, поскольку они воспроизводят культурные предубеждения «идеального кандидата», которым исторически были белые или европейские мужчины.

Инструменты также могут не улучшить разнообразие, поскольку они основаны на прошлых данных компании и, таким образом, могут продвигать кандидатов, которые больше всего похожи на нынешних сотрудников.

Элеонора Дрэдж, соавтор исследования и исследователь из Центра гендерных исследований Кембриджского университета, «не несет большой ответственности за то, как эти продукты создаются или тестируются», — заявила в своем заявлении Элеонора Дрейдж, добавив, что технология может быть «опасной». источник «дезинформации о том, как можно «устранить предвзятость» и сделать набор более справедливым».

Важная цитата

«Утверждая, что расизм, сексизм и другие формы дискриминации могут быть исключены из процесса найма с помощью искусственного интеллекта, эти компании сводят расу и пол к незначительным точкам данных, а не к системам власти, которые определяют, как мы движемся по миру. — говорится в заявлении Драге.

касательный

В 2018 году Amazon объявила, что остановить использование инструмента рекрутинга с искусственным интеллектом для просмотра резюме соискателей после того, как было обнаружено, что система сильно дискриминирует женщин. Это связано с тем, что компьютерные модели, на которые он опирался, были разработаны на основе резюме, поступивших в компанию за последние 10 лет, которые в основном поступали от соискателей-мужчин.

Ключевой фон

Организации все чаще обращаются к ИИ, чтобы помочь управлять процессами найма на работу. В одной Опрос 2020 Консалтинговая фирма Gartner обнаружила, что из более чем 300 руководителей кадровых служб, упомянутых авторами воскресной газеты, 86% работодателей используют виртуальные технологии в своей практике найма, и эта тенденция ускорилась после того, как пандемия Covid-19 вынудила многих перевести работу в онлайн. В то время как некоторые компании утверждают, что ИИ может предложить более эффективный с точки зрения затрат и времени процесс найма, некоторые эксперты иметь найденный системы имеют тенденцию поощрять, а не устранять, найм с расовой и гендерной предвзятостью, копируя существующие предрассудки из реального мира. Несколько американских законодателей Нацеленный для устранения предубеждений в системах искусственного интеллекта, поскольку технология продолжает быстро развиваться, и существует мало законов, регулирующих ее. Белый дом на этой неделе выпустил «Проект Билля о правах ИИ», в котором утверждается, что алгоритмы, используемые при найме, «отражают и воспроизводят существующее нежелательное неравенство» или внедряют новые «предубеждения и дискриминацию». План, который не является юридически обязывающим или официальной государственной политикой, призывает компании следить за тем, чтобы ИИ не дискриминировал и не нарушал конфиденциальность данных, а также информировать пользователей о том, когда используется эта технология.

Что смотреть

В списке рекомендаций авторы воскресного Философия и технологии В документе предлагалось компаниям, разрабатывающим технологии ИИ, сосредоточиться на более широком, систематическом неравенстве, а не на «индивидуальных случаях предвзятости». Например, они предлагают разработчикам программного обеспечения изучить категории, используемые для сортировки, обработки и классификации кандидатов, и то, как эти категории могут способствовать дискриминации, полагаясь на определенные предположения о поле и расе. Исследователи также утверждают, что HR-специалисты должны попытаться понять, как работают инструменты набора персонала с помощью ИИ и каковы некоторые из их потенциальных ограничений.

Удивительный факт

Европейский Союз классифицировал программное обеспечение для найма на базе искусственного интеллекта и инструменты оценки эффективности как «высокий риск» в своем новом проект правовая база по ИИ, а это означает, что инструменты будут подвергаться более тщательной проверке и должны будут соответствовать определенным требованиям соответствия.

Дальнейшее чтение

DC хочет возглавить борьбу с предвзятостью ИИ (Вардар)

Источник: https://www.forbes.com/sites/madelinehalpert/2022/10/09/ai-powered-job-recruitment-tools-may-not-improve-hiring-diversity-experts-argue/