Российские специалисты по подбору персонала всё чаще используют нейросети для отбора резюме. Однако новое исследование американских учёных выявило тревожную тенденцию: алгоритмы систематически дискриминируют кандидатов, которые не пользовались популярными языковыми моделями (LLM) при составлении резюме. При этом наибольшее предпочтение получают те, кто «общался» с той же нейросетью, что установлена у работодателя.
Хроники запрограммированной предвзятости
Исследователи Цзяньнань Сюй (Университет Мэриленда), Гуцзе Ли (Национальный университет Сингапура) и Джейн Цзян (Университет штата Огайо) проанализировали 2245 резюме, написанных людьми, и создали их искусственные копии с помощью GPT-4o и Deepseek-V3.1.
Результат оказался показательным. При моделировании найма для 24 профессий AI-оценщики отдавали предпочтение кандидатам, использовавшим ту же языковую модель, в 23-60% случаев. Иными словами, нейросеть «узнавала» свой стиль формулировок, структуру фраз и маркеры и завышала таким кандидатам рейтинг.
Особенно ярко эффект проявился в бухгалтерии, продажах и финансах. В этих сферах решения о первом отсеве всё чаще принимаются автоматически, без участия человека.
Профессор Бостонского университета Эмма Уайлз, комментируя исследование, назвала это «новой формой алгоритмической предвзятости»: «Вместо того чтобы выявлять истинные способности соискателя, вы ищете того, чей “голос” кажется ИИ похожим на его собственный. Это искажает рынок труда».
Параллели с российскими реалиями
Для России эта проблема стоит не менее остро, хотя и с национальной спецификой.
Во-первых, согласно опросам HeadHunter и SuperJob, более 60% крупных компаний в РФ уже применяют системы «первичного отбора резюме» (аналог западных ATS), многие из которых встроены в корпоративные контуры. Во-вторых, активно развиваются российские LLM (от «Яндекса», Сбера, МТС). Ситуация, когда нейросеть работодателя автоматически выбраковывает резюме, сгенерированные конкурирующей моделью, — уже не гипотетический риск, а инженерная реальность.
«Если работодатель использует, скажем, GigaChat, а соискатель подготовил резюме через YandexGPT, алгоритм может посчитать последнее “менее качественным” просто из-за несовпадения статистических паттернов, - поясняет в беседе с редакцией аналитик рынка HR-Tech Дмитрий Воронов (имя и фамилия изменены по просьбе эксперта). - Человек такой разницы не заметит, а машина - да».
Эффект «бабла» и риски для бизнеса
Авторы исследования назвали этот феномен «самопредпочтением LLM». На жаргоне российских айтишников это уже окрестили «эффектом бабла» (от англ. bubble - пузырь), имея в виду замкнутый круг: нейросеть обучается на текстах, сгенерированных ей же, и начинает считать этот стиль эталонным.
Какие риски это несёт для российского бизнеса:
1. Кадровые потери. Кандидат с редкими навыками, но написавший резюме «по-человечески», не пройдёт первый фильтр.
2. Нарушение закона «О персональных данных» (152-ФЗ) и ТК РФ. Формально алгоритм не может дискриминировать. Но доказать, что отказ связан именно с «неугодной» LLM, а не с деловыми качествами, почти невозможно.
3. Усиление цифрового неравенства. Кандидаты старшего возраста или люди без доступа к платным версиям нейросетей окажутся в заведомо проигрышной позиции.
Что делать в России?
Специалисты предлагают несколько мер, которые уже обсуждаются в профессиональном сообществе HR-директоров и на профильных комитетах «Деловой России»:
· Прозрачность настроек ATS. Работодатель обязан декларировать, какая LLM используется для отбора.
· «Слепой» тест. Периодически прогонять через систему реальные резюме, написанные людьми, и сравнивать результаты.
· Человек в петле (Human-in-the-loop). Окончательное решение о приглашении на собеседование должен принимать рекрутер, а не алгоритм.
· Смена генератора. Соискателям рекомендуется использовать 2–3 разные нейросети для составления резюме или комбинировать ИИ с правкой вручную, чтобы «сломать» уникальный почерк одной модели.
В условиях, когда российский рынок труда остаётся рынком соискателя (низкая безработица, кадровый голод в IT и инженерии), игнорировать проблему «цифрового кумовства» — значит потерять лучших специалистов в пользу более осознанных конкурентов.
Ключевой вывод: ИИ в найме перестал быть нейтральным инструментом. Он стал активным участником, обладающим собственными предпочтениями. И задача HR-служб в России сегодня — научиться эти предпочтения обнулять, а не усугублять.
Данный материал носит аналитический и информационный характер и не является юридической консультацией.




