Новое исследование подчеркивает растущий рынок инструментов подбора персонала на основе ИИ, используемых для обработки большого количества кандидатов на работу, которые утверждают, что обходят человеческие предубеждения и устраняют дискриминацию при приеме на работу. • Эти инструменты искусственного интеллекта сводят расу и пол к тривиальным точкам данных и часто полагаются на анализ личности, который, по словам исследователей из Кембриджа, является «автоматизированной лженаукой». Ученые также объединились со студентами, изучающими информатику, чтобы опровергнуть использование ИИ при наборе персонала, создав версию программного обеспечения, которое все чаще используется HR-командами. Он демонстрирует, как случайные изменения в одежде или освещении дают радикально разные характеристики личности, которые могут оказаться решающими для целого поколения ищущих работу.
В последние годы появились инструменты ИИ, рекламируемые как ответ на отсутствие разнообразия в рабочей силе: от использования чат-ботов и сборщиков резюме для подбора потенциальных кандидатов до аналитического программного обеспечения для видеоинтервью.
Те, кто стоит за этой технологией, утверждают, что она устраняет человеческие предубеждения в отношении пола и этнической принадлежности при приеме на работу, вместо этого используя алгоритмы, которые считывают словарный запас, речевые паттерны и даже микровыражения лиц, чтобы оценить огромные группы соискателей на предмет правильного типа личности и «культурного соответствия».
Тем не менее, в новом отчете, опубликованном в Philosophy and Technology , исследователи из Кембриджского центра гендерных исследований утверждают, что эти утверждения делают некоторые виды использования ИИ при найме немногим лучше, чем «автоматизированная лженаука», напоминающая физиогномику или френологию: дискредитированные убеждения в том, что личность может быть по чертам лица и форме черепа.
Они говорят, что это опасный пример «технорешения»: обращение к технологиям для быстрого решения глубоко укоренившихся проблем дискриминации, которые требуют инвестиций и изменений в корпоративной культуре.
Фактически, исследователи работали с командой студентов Кембриджа по информатике, чтобы опровергнуть эти новые методы найма, создав инструмент искусственного интеллекта, смоделированный на этой технологии, доступный по адресу: https://personal-ambiguator-frontend.vercel.app/
«Машина личности» демонстрирует, как произвольные изменения в выражении лица, одежде, освещении и фоне могут давать радикально разные интерпретации личности — и, таким образом, могут иметь значение между отказом и прогрессом для поколения соискателей, борющихся за должности выпускников.
Кембриджская команда говорит, что использование ИИ для сужения пула кандидатов может в конечном итоге повысить единообразие, а не разнообразие в рабочей силе, поскольку технология откалибрована для поиска воображаемого работодателя «идеального кандидата».
По словам исследователей, это может привести к тому, что те, у кого есть правильная подготовка и опыт, «победят алгоритмы», воспроизводя поведение, на которое запрограммирован ИИ, и применяя это отношение на рабочем месте.
Кроме того, поскольку алгоритмы оттачиваются с использованием прошлых данных, они утверждают, что кандидаты, которые считаются наиболее подходящими, скорее всего, в конечном итоге окажутся теми, кто больше всего напоминает текущую рабочую силу.
«Мы обеспокоены тем, что некоторые продавцы упаковывают продукты из «змеиного жира» в блестящую упаковку и продают их ничего не подозревающим покупателям», — сказала соавтор доктор Элеонора Дрэдж.
«Утверждая, что расизм, сексизм и другие формы дискриминации можно исключить из процесса найма с помощью искусственного интеллекта, эти компании сводят расу и пол к незначительным точкам данных, а не к системам власти, которые определяют, как мы движемся по миру. «
Исследователи отмечают, что эти инструменты найма ИИ часто являются проприетарными или «черными ящиками», поэтому то, как они работают, остается загадкой.
«Хотя компании не могут действовать недобросовестно, ответственность за то, как эти продукты создаются или тестируются, невелика», — сказал Драге. «Таким образом, эта технология и то, как она продается, могут стать опасными источниками дезинформации о том, как можно «устранить предвзятость» найма и сделать его более справедливым».
Несмотря на некоторые возражения — например, предложенный ЕС Закон об ИИ классифицирует программное обеспечение для найма на основе ИИ как «высокорисковое», — исследователи говорят, что инструменты, созданные такими компаниями, как Retorio и HIreVue, развертываются без особого регулирования, и указывают на опросы, предлагающие их использование. ИИ в найме растет как снежный ком.
Исследование 500 организаций из различных отраслей в пяти странах, проведенное в 2020 году, показало, что 24% предприятий внедрили ИИ для целей найма, а 56% менеджеров по найму планировали внедрить его в следующем году.
Другой опрос 334 руководителей кадровых служб, проведенный в апреле 2020 г., когда началась пандемия, показал, что 86% организаций используют новые виртуальные технологии при приеме на работу.
«Эта тенденция уже существовала, когда началась пандемия, и ускоренный переход к онлайн-работе, вызванный COVID-19, вероятно, приведет к более широкому использованию инструментов искусственного интеллекта отделами кадров в будущем», — сказал соавтор доктор Керри Маккерет, который вместе с Drage представляет подкаст Good Robot, в котором дуэт исследует этику технологий.
По словам сотрудников отдела кадров, опрошенных исследователями, Covid-19 — не единственный фактор. «Объемный набор становится все более неприемлемым для отделов кадров, которые отчаянно нуждаются в программном обеспечении для сокращения расходов, а также для большого количества соискателей, которым требуется личное внимание», — сказал Маккерет.
Дрэдж и Маккерет говорят, что многие компании теперь используют ИИ для анализа видео кандидатов, интерпретации личности путем оценки областей лица — аналогично ИИ для обнаружения лжи — и оценки «большой пятерки» личностных характеристик: экстраверсия, покладистость, открытость, сознательность и невротизм.
Студенты, работающие над «Машиной личности», которая использует аналогичную технику для выявления своих недостатков, говорят, что, хотя их инструмент может не помочь пользователям победить алгоритм, он даст соискателям представление о том, под каким контролем ИИ они могут находиться. — Возможно, даже без их ведома.
«Слишком часто процесс найма является косвенным и запутанным», — сказал Юан Онг, один из студентов-разработчиков. «Мы хотим дать людям интуитивную демонстрацию тех суждений, которые сейчас о них выносятся автоматически.
«Эти инструменты обучены предсказывать личность на основе общих закономерностей в изображениях людей, которых они ранее видели, и часто в конечном итоге обнаруживают ложные корреляции между личностью и явно не связанными свойствами изображения, такими как яркость. Мы сделали игрушечную версию такого рода. моделей, которые, по нашему мнению, используются на практике, чтобы самим поэкспериментировать», — сказал Онг.