HÍREK ÉS ÉRDEKESSÉGEK

HÍREK ÉS ÉRDEKESSÉGEK

2025.07.29.
Mesterséges intelligencia a tehetségazonosításban: lehetőségek és kihívások

A mesterséges intelligencia (MI) rohamosan terjed a humánerőforrás területén, különösen a tehetségek felkutatásában és toborzásában. Ma már a nagyvállalatok túlnyomó többsége alkalmaz valamilyen MI-alapú eszközt a toborzási folyamat egyes szakaszaiban – egy friss felmérés szerint a Fortune 500 cégek 92%-a használ MI-t a jelöltek felkutatásától az előszűrésen át a végső kiválasztásig. Az MI ígérete csábító: algoritmusok segítségével percek alatt át lehet tekinteni több száz önéletrajzot, objektíven összevetni a jelöltek profilját a kívánt követelményekkel, sőt bizonyos jelek alapján előre jelezni, kiből lehet sikeres munkatárs. Ugyanakkor ezek a technológiák komoly kérdéseket is felvetnek a szakemberekben. A következőkben áttekintjük az MI alkalmazásának főbb előnyeit és a legfontosabb kihívásokat – különös tekintettel a pontosságra, az esetleges torzításokra, az átláthatóság hiányára, valamint a jogi és etikai dilemmákra –, illetve megvizsgáljuk, mit tanácsolnak a szakértők az MI felelős használatával kapcsolatban.

Az MI ígéretes lehetőségei a tehetségazonosításban

Az MI egyik legnagyobb vonzereje a toborzásban a sebesség és hatékonyság növelése. Míg egy emberi toborzónak órákba telhet átnézni néhány tucat önéletrajzot, addig egy jól betanított algoritmus pillanatok alatt képes több száz vagy ezer jelölt adatait kiértékelni. Például a PwC egyik 2024-es technológiai felmérése szerint az MI használata átlagosan 37%-kal lerövidítheti a betöltési időt és 35%-kal csökkentheti a toborzás költségeit, köszönhetően az automatizált előszűrésnek és rangsorolásnak. Ráadásul az MI rendszerek elképesztő mennyiségű adatot tudnak feldolgozni: akár percenként 250 önéletrajzot át tudnak nézni, összehasonlítva a humán szakemberek ~7 darabos óránkénti kapacitásával. Ez lehetővé teszi, hogy a toborzók sokkal szélesebb merítésből válogassanak, és ne vesszenek el értékes jelentkezők pusztán amiatt, hogy nem jut idő minden pályázat alapos áttekintésére.

Az MI másik ígérete az objektívebb, adatalapú döntéshozatal elősegítése. Ideális esetben az algoritmusok az előítéletektől mentesen, előre meghatározott szempontok alapján értékelik a jelölteket – például a szükséges készségek, tapasztalat és alkalmasság szerint –, így elvileg csökkenthetik az emberi döntéshozókban olykor tudattalanul is működő torzításokat. Bizonyos eszközök képesek arra is, hogy anonimizálják a pályázók adatait: eltávolítják az önéletrajzból a nevet, életkort, nemet, etnikai hovatartozást jelző információkat, hogy a rendszerek tényleg csak az objektív szakmai tényezőkre fókuszáljanak. Ha a jelölteket kizárólag a képességeik és kompetenciáik alapján rangsoroljuk (például az iskolák vagy a korábbi munkahelyek „márkaneve” helyett), az növelheti a sokszínűséget is a kiválasztásban, hiszen esélyt ad olyan tehetségeknek is, akiket a hagyományos módszerek esetleg figyelmen kívül hagynának. Több nagy cég számolt be arról, hogy az MI bevezetésével javult a kiválasztás minősége és nőtt a felvett munkatársak változatossága. Természetesen mindez csak akkor igaz, ha az MI-rendszert megfelelően tervezik meg. A lehetőségek mellett fontos látni a korlátokat is, amelyeket az alábbiakban részletezünk.

Pontosság és prediktív teljesítmény kérdése

Az MI alkalmazásának egyik kritikus pontja a valódi pontosság – vagyis hogy mennyire képesek ezek a rendszerek ténylegesen előre jelezni egy jelölt beválását, teljesítményét. Hiába gyors és automatizált egy eszköz, ha nem azt méri, amit kell, vagy hibás következtetéseket von le. Több korai MI-alapú megoldásról kiderült, hogy prediktív erejük megkérdőjelezhető. Jó példa erre a videóinterjú-elemző algoritmusok esete: az egyik ismert szolgáltató olyan MI-technológiát vezetett be, ami a jelöltek arckifejezéseit és hanghordozását elemezte, hogy személyiségjegyeket és képességeket következtessen belőlük. Ám kiderült, hogy ez az „arcelemzés” tudományosan nem megalapozott, és önmagában nem volt független, érvényes előrejelzője a munkában való beválásnak. A módszert ért éles szakmai kritikák nyomán a cégnél végül le is állították ennek használatát. Nem egy szakértő „digitális hókuszpókusznak” vagy „kuruzslásnak” nevezte az ilyen, megfelelő validáció nélküli MI-eszközöket, rámutatva, hogy pusztán nagy adathalmazokra építve, kontrollált tudományos bizonyítás nélkül nem szabadna sorsdöntő HR-döntéseket automatizálni. A pontosság kérdése tehát alapvető: az MI-rendszereket ugyanúgy validálni kellene, mint bármely pszichometriai tesztet. Ennek hiányában könnyen előfordulhat, hogy az algoritmus értékes jelölteket szűr ki indokolatlanul, vagy épp ellenkezőleg, alkalmatlan jelölteket juttat tovább, téves adatmusterok alapján.

Torzítások és diszkrimináció veszélye

Az MI alkalmazásával kapcsolatban a legnagyobb visszhangot talán az algoritmusokban megjelenő torzítások (bias) kapták. Az MI rendszerek a múltbeli adatokon „tanulnak”, így ha a történelmi adatokban benne vannak az emberi társadalom egyenlőtlenségei és előítéletei, az algoritmus ezeket a mintákat észrevétlenül újratermelheti. Kutatások sokasága igazolja, hogy az MI-alapú kiválasztó rendszerek döntéseiben gyakran megjelennek szisztematikus torzítások. Egy 2025-ös átfogó vizsgálat szerint a kereskedelmi forgalomban elérhető toborzási algoritmusok 78%-ánál kimutatható volt statisztikailag szignifikáns bias valamely védett csoporttal szemben. Gyakori, hogy a programok például a női jelölteket bizonyos pozícióknál alacsonyabb pontszámmal értékelik (az említett vizsgálatban az ilyen rendszerek 63%-a kedvezőtlenebbül pontozta a nőket műszaki területeken), vagy éppen etnikai alapon torzítanak (a modellek 71%-ánál találtak faji/etnikai alapon megnyilvánuló hátrányos megkülönböztetést). Még az életkor sem kivétel: az algoritmusok 68%-ánál az idősebb (45 év feletti) jelöltek kisebb eséllyel jutottak tovább, ugyanolyan teljesítmény mellett. Ha a múltban bizonyos csoportok kevesebb lehetőséget kaptak vagy előítéletek sújtották őket, egy felügyelet nélküli MI nagy eséllyel továbbviszi ezeket a mintázatokat – hacsak tudatosan nem figyelünk oda a kiküszöbölésükre.

Jogi és etikai dilemmák

Mivel a munkaerő-felvétel a jelöltek életére és a szervezetek összetételére is nagy hatással van, nem meglepő, hogy az MI alkalmazása ezen a téren szigorú jogi és etikai vizsgálat alá került. Jogi szempontból alapvetés, hogy a meglévő antidiszkriminációs törvények (pl. az Egyesült Államokban a polgárjogi törvény VII. cikkelye, az Európai Unióban a foglalkoztatási egyenlőségi irányelvek) ugyanúgy érvényesek az MI által hozott döntésekre, mint a humán döntéshozatalra. Vagyis ha egy algoritmus például faji, nemi vagy életkori alapon hátrányosan különböztet meg jelölteket, a munkáltató ugyanúgy felelősségre vonható, mintha ezt egy emberi vezető tette volna. Ez arra ösztönözte a jogalkotókat világszerte, hogy specifikus szabályokat is alkossanak az MI használatára. Az USA több tagállama és városa már lépett: például Illinois állam 2024 augusztusában törvényt fogadott el, amely kifejezetten tiltja olyan MI használatát a toborzásban, amelynek működése védett csoporthoz tartozás alapján eredményez megkülönböztetést. New York City pedig rendeletben írja elő, hogy az álláskeresők szűrésére használt automatizált eszközöket évente független auditnak kell alávetni a bias szempontjából, és az állásjelentkezőknek előre be kell jelenteni, ha ilyen eszközt alkalmaznak. Európában is készül a mesterséges intelligencia átfogó szabályozása (EU AI Act), amely a munkaerő-felvételben használt MI-t a „magas kockázatú” alkalmazások közé sorolja – ez pedig olyan kötelezettségekkel jár majd, mint a rendszeres bias-vizsgálat, az átláthatóság biztosítása és az emberi felügyelet előírása.

Az etikai kérdések talán még szövevényesebbek. Felmerül a felelősség dilemmája: ha egy MI rossz döntést hoz (például diszkriminál vagy tévesen utasít el valakit), ki a felelős érte? A fejlesztő, a rendszer „gazdája” vagy a HR vezető, aki használta? Ugyancsak felvetődik, hogy nem válik-e túl személytelenné és lélektelenné a folyamat, ha az első szűrő egy algoritmus, ami 0 és 1 értékekre fordítja le a jelentkezőt. Továbbá az adatvédelmi aggályok is jogosak: az MI rendszerek gyakran hatalmas mennyiségű személyes adatot elemeznek (videóinterjúk felvételeit, közösségi média aktivitást, pszichometriai tesztek eredményeit stb.). Biztosítani kell, hogy mindez a jelölt beleegyezésével történjen, az adatok ne kerüljenek illetéktelen kezekbe, és csakis olyasmire legyenek felhasználva, ami jogilag és etikailag védhető. Végül megkérdőjelezhető olyan gyakorlat is, amikor az MI valamilyen kvázi-tudományos alapon kategorizálja az embereket (például arckifejezés vagy hangszín alapján pontozza a személyiségüket) – sokak szerint ez sérti az emberi méltóságot és hasonlatos a diszkreditált „fiziognómia” vagy más áltudományos megkülönböztetések logikájához.

Szakmai kritikák és ajánlások

A felsorolt kihívások tükrében a HR és munkapszichológia szakma képviselői óvatosságra intenek az MI alkalmazásakor. Általános konszenzus, hogy az MI nem válthatja ki teljesen az emberi döntéshozatalt, hanem csak támogató eszközként szabad rá tekinteni. A fontos döntésekbe mindenképp be kell építeni az emberi felülvizsgálatot és józan észt: a gép által adott listát vagy pontszámot egy hozzáértő HR szakembernek át kell tekintenie, mielőtt bárkit automatikusan kizárnánk vagy felvennénk.

Emellett a szakemberek hangsúlyozzák a folyamatos tesztelés és monitorozás szükségességét. Egy MI-rendszert nem lehet “magára hagyni” – rendszeresen ellenőrizni kell, hogy a döntései nem kezdtek-e el torz irányba elmozdulni. Érdemes időszakos hatásvizsgálatokat végezni (hasonlóan a New York-i audit előírásokhoz), és ha bármilyen aránytalanságot vagy igazságtalan mintázatot tapasztalunk a kimenetekben, be kell avatkozni az algoritmus finomhangolásával vagy akár lecserélésével.

Talán a legfontosabb, hogy meg kell válogatnunk, mely feladatokat automatizáljuk, és hol tartjuk meg inkább az emberi tényezőt. Az MI kiválóan alkalmas adminisztratív és repetitív teendők felgyorsítására (pl. adatok előszűrése), de például a kulturális illeszkedés vagy a motiváció mélyebb felmérése terén az emberi interjúztatót nem pótolja. Sokan rámutatnak, hogy az MI nem képes olyan emberi értékek észlelésére, mint a szenvedély, a kitartás, a kreativitás vagy az egyéni élettörténetből fakadó plusz – márpedig ezek gyakran éppoly fontosak a tehetség szempontjából, mint a formális képesítések. Ha pedig egy túlautomatizált rendszer ezeket nem veszi észre, könnyen előfordulhat, hogy a nem tipikus hátterű, de ígéretes jelöltek kihullanak a rostán. A szakértők tehát azt javasolják, hogy az MI bevezetését mindig kísérje kritikus szemlélet.

Felhasznált irodalom:

  1. Dastin, J. (2018). Amazon scrapped 'AI recruiting tool' that showed bias against women. Reuters.

  2. HireVue Case Study & Ethics Review (2020). Facial Analysis Under Fire: The End of AI-based Video Scoring. Wired & Unleash.ai.

  3. Binns, R. et al. (2018). 'It's Reducing a Human Being to a Percentage': Perceptions of Justice in Algorithmic Decisions. CHI Proceedings.

  4. Raghavan, M. et al. (2020). Mitigating Bias in Algorithmic Hiring: Evaluating Claims and Practices. FAT* Conference.

  5. PwC (2024). Artificial Intelligence in HR: Efficiency Gains, Ethical Risk. Global Workforce Survey.

  6. SIOP (2024). AI in Talent Assessment: A White Paper on Emerging Practice and Regulation.

  7. AI Now Institute Report (2023). Algorithmic Discrimination in Recruitment and Selection.

  8. Binns, R. (2022). Transparency and Accountability in Algorithmic Decision-Making. Oxford Internet Institute.

  9. Pymetrics (2023). Audit & Fairness in AI-driven Assessments – Technical Whitepaper.

  10. EU AI Act Draft (2024). Regulation on High-Risk AI Systems in Employment Contexts. European Commission.

  11. New York City Local Law 144 (2023): Automated Employment Decision Tools Audit Requirements.

  12. SHRM (2023). How AI Bias Can Harm Diversity in Hiring – HR Technology Insights.

  13. Thomas International (2024). Can AI Accurately Assess Personality?

+36 21 345 7060reszletek@practiwork.huSzékhely: 1037 Budapest, Jablonka út 103.
Levelezési cím: 3525 Miskolc Szent Anna utca 12/B
© Copyright PractiWork Zrt. 2025 ALL RIGHTS RESERVED