Według badania przeprowadzonego przez platformę jobscan.com, już w 2019 r. z narzędzi typu ATS (systemów zarządzania rekrutacjami) takich jak Workday – Taleo, SAP SuccessFactors, IBM Kenexa Brassiring, ICIMS czy też ADP – korzystało blisko 99% z listy Fortune 500 największych amerykańskich przedsiębiorców. W zdecydowanej większości przypadków wykorzystywane oprogramowanie było oparte lub uzupełniane o mniej lub bardziej zaawansowane algorytmy sztucznej inteligencji.
W sektorze mniejszych przedsiębiorstw, zainteresowanie oprogramowaniem automatyzującym proces rekrutacji nie jest, aż tak wysokie, choć z roku na rok wyraźnie wzrasta. Wskazany trend pokazuje, że nie tylko najwięksi, ale praktycznie wszyscy pracodawcy zaczynają dostrzegać korzyści ze stosowania rozwiązań technologicznych przy poszukiwaniu nowych osób do pracy, a także zaczynają ufać stosowanym w nich algorytmom powierzając im jeden z kluczowych procesów z obszaru HR.
Ciężko im się dziwić, w sytuacji gdy same liczby przy wdrażaniu wspomnianych narzędzi pokazują wzrost efektywności rekrutacji, większe zadowolenie kandydatów z procesu rekrutacji (Candidate Experience), czy też przyspieszenie całego procesu. Ważne jest jednak, aby wdrażając takie systemy czynić to rozsądnie, by – pomimo wszystkich, wspomnianych wcześniej zalet – pewne przeoczenia nie spowodowały niespodziewanych szkód.
Stosowanie algorytmów sztucznej inteligencji w rekrutacji jest wyjątkowo szerokim zagadnieniem. Przeważnie podświadomie łączymy je z zastąpieniem rekrutera rozwiązaniem, które kompleksowo wyręczy go w całym procesie. W praktyce jednak systemy IT nie zastępują (i nie powinny zastępować) człowieka. Odciążają go jedynie w tych częściach jego pracy, które są czasochłonne, a nie wymagają wyczucia i intuicji osoby dokonującej selekcji. W wielu aspektach mogą być też pomocne w przeciwdziałaniu nierównemu traktowaniu w rekrutacji, choć nie musi to być reguła.
Aby przybliżyć w jak szerokim stopniu możliwe jest zastosowanie sztucznej inteligencji przy doborze pracowników, warto odwołać się do „cyklu życia” rekrutacji.
Jesteśmy w przededniu wprowadzenia w życie nowych unijnych regulacji dotyczących wykorzystywania sztucznej inteligencji. Pewne jest to, że pracodawcy zostaną zobligowani do szczególnego zadbania o kwestie prywatności czy też o weryfikację stosowanych narzędzi pod kątem nienaruszania przez AI praw osób poddawanych jej rozstrzygnięciom.
Poszukując pracownika w stogu danych
Zawsze pierwszym etapem jest znalezienie odpowiedniego kandydata do pracy. Kiedyś musieliśmy ograniczać się do publikacji naszej oferty oraz nadziei, że nasz wymarzony przyszły pracownik nie tylko ją odnajdzie, ale też zainteresuje się naszym ogłoszeniem. Samo przygotowanie ogłoszenia wymagało od nas specyficznych umiejętności, w tym wiedzy jak najlepiej się zareklamować wśród docelowej grupy kandydatów.
Dzisiaj z pomocą w tym procesie przychodzą nam kontekstowe generatory tekstu typu Large Language Model (takie jak niezwykle popularny w ostatnich czasach Chat GPT), umożliwiające sformułowanie ogłoszenia rekrutacyjnego, które będzie spersonalizowane pod daną rekrutację. Prócz tego – zamiast oddawać rekrutację w ręce losu – w wyszukiwaniu przyszłych pracowników możemy być zdecydowanie bardziej aktywni.
Za pośrednictwem samego portalu LinkedIn mamy bezpośredni dostęp do profili ponad 800 mln użytkowników na całym świecie, a w samej Polsce do danych dotyczących dotychczasowej kariery zawodowej blisko 5 mln osób. Można śmiało powiedzieć, że dzięki temu, w poszukiwaniu kandydatów zmienił się paradygmat z dotarcia do jak największej liczby zainteresowanych, na odnalezienie nielicznych spośród wielu. Problemem jest czas. Aby odnaleźć osoby odpowiadające naszym potrzebom trzeba poświęcić nierzadko nie dni, a tygodnie przed monitorem, a i w tym wypadku nie możemy mieć pewności czy ktoś nam nie umknął. Dzięki systemom AI jesteśmy w stanie skrócić ten czas po wielokroć oraz znacznie zwiększyć skuteczność dopasowania.
Najpopularniejszym narzędziem są roboty (tworzone przy wykorzystaniu oprogramowania typu Robotic Process Automation) przesiewające bazy LinkedIn’a, selekcjonujące tylko tych kandydatów, którzy będą odpowiadać naszym potrzebom. Kluczowe w tej mierze jest prawidłowe zdefiniowanie naszych oczekiwań. Nie oszukujmy się, algorytmy nie posiadają szczególnego wyczucia przy doborze. Kierując się zasadami logiki weryfikują procentowe dopasowanie określonych przez nas warunków, z tym co kandydat o sobie napisze. Jeżeli będziemy nieprecyzyjni przy określaniu kogo potrzebujemy, równie nieprecyzyjny będzie wynik wyszukania. Całkowicie odmienną kwestią jest weryfikacja legalności użycia tego typu narzędzi.
Kiedyś musieliśmy ograniczać się do publikacji naszej oferty i nadziei, że nasz wymarzony przyszły pracownik ją odnajdzie. Dzisiaj z pomocą przychodzą kontekstowe generatory tekstu typu Large Language Model (np. Chat GPT), umożliwiające sformułowanie ogłoszenia rekrutacyjnego, które będzie spersonalizowane pod daną rekrutację.
Zasadniczo sam Web Scraping (czyli wspomniane zbieranie danych z czyjejś strony internetowej – np. LinkedIn) nie jest nielegalny, niemniej jednak (1) stosowany bez wcześniejszego przygotowania procesu może nas narazić na odpowiedzialność za nieprawidłowe przetwarzanie danych osobowych. Wszak pozyskanie danych osobowych za pomocą Web Scrapingu należy uznać za ich przetwarzanie, co będzie wymagało od nas spełnienia szeregu obowiązków na gruncie RODO (w tym przeważnie obowiązku informacyjnego, czy też zapewnienia przestrzegania praw osób których dane zbierzemy) (2) może się on wiązać z kopiowaniem ze strony elementów objętych prawami autorskimi, co może nas narazić na spór związany z nieuprawnionym korzystaniem z czyjejś własności intelektualnej (3) regulamin danej strony może wprost zabraniać Web Scrapingu, a nawet (4) przez zbieranie danych z czyjejś strony możemy się narazić na zarzut nieuprawnionego kopiowania czyjejś bazy danych co potencjalnie może nas narazić nawet na odpowiedzialność karną.
Ze wszystkich powyższych względów, zanim zaczniemy angażować tego typu rozwiązania do tworzenia własnej bazy danych potencjalnych kandydatów odpowiadających naszym potrzebom w oparciu o dane umieszczone online, powinniśmy zweryfikować czy narzędzie, z którego będziemy korzystać jest bezpieczne oraz czy portal, z którego będziemy zbierać dane (w tym LinkedIn) dopuszcza taką praktykę.
Z czym może wiązać się pozyskanie danych osobowych za pomocą Web Scrapingu:
- Koniecznością spełnienia szeregu obowiązków na gruncie RODO (w tym przeważnie obowiązku informacyjnego, czy też zapewnienia przestrzegania praw osób których dane zbierzemy),
- kopiowaniem ze strony elementów objętych prawami autorskimi, co może nas narazić na spór związany z nieuprawnionym korzystaniem z czyjejś własności intelektualnej,
- łamaniem regulaminu danej strony, który może wprost zabraniać Web Scrapingu,
- zarzutem nieuprawnionego kopiowania czyjejś bazy danych co potencjalnie może nas narazić nawet na odpowiedzialność karną.
Czy jesteśmy gotowi rozmawiać z robotami?
Drugim etapem jest zapewnienie prawidłowej komunikacji z kandydatem. Ten etap, tak często zaniedbywany, wskazywany jest jako kluczowy dla skutecznego doboru talentów. To tu możemy zwiększyć zainteresowanie kandydata dołączeniem do naszej organizacji lub wręcz przeciwnie, skutecznie zniechęcić go, co może zniweczyć wcześniejsze trudy jego pozyskania.
Wcześniej wspomniane kontekstowe generatory tekstu takie jak Chat GPT mogą nam pomóc przygotować dedykowane zaproszenia do kandydatów których wybraliśmy z przygotowanej przez nas bazy potencjalnych kandydatów, a spersonalizowane Chatboty i Voiceboty, mogą umożliwić nie tylko zebranie dodatkowych informacji od kandydata (zarówno tego wcześniej wyselekcjonowanego jak i tego, który samodzielnie odpowie na ogłoszenie rekrutacyjne), ale też zapewnić z nim bieżącą komunikację.
Idealnym przykładem z polskiego rynku jest proces wdrożony w sieci handlowej ALDI. O czym opowiadano po udanym wdrożeniu, w ramach prowadzonej kampanii rekrutacyjnej na zewnętrznych nośnikach zostały umieszczone kody QR, których zeskanowanie przenosiło kandydatów do rozszerzonej rzeczywistości, w której potencjalny pracownik miał do wyboru dwie ścieżki aplikacji – przez stronę www lub infolinię.
Co więcej, w rozszerzonej rzeczywistości można było poznać pracownicę jednego z centrów dystrybucyjnych, która zapraszała do dołączenia do #teamALDI. W ramach uruchomionej infolinii, wykorzystującej technologię Voicebot, kandydaci zainteresowani pracą na stanowisku pracownika magazynu mogli dzwonić pod dedykowany numer telefonu przez całą dobę, 7 dni w tygodniu i składać aplikację.
Program bazujący na interfejsie głosowym automatycznie odbierał połączenia i przeprowadzał rozmowę, podczas której kandydat miał okazję podzielić się doświadczeniem zawodowym oraz umiejętnościami. Po przeprowadzonej rozmowie dane kandydatów wraz z odpowiedziami przekazywane były do systemu ATS. Oddźwięk ze strony kandydatów był w pełni pozytywny, szczególnie, że Voicebot wracał do kandydatów z informacją zwrotną, dzięki czemu nikt nie pozostawał bez odpowiedzi.
Kontekstowe generatory tekstu, takie jak Chat GPT, mogą nam pomóc przygotować dedykowane zaproszenia do kandydatów, a Chatboty i Voiceboty, mogą umożliwić nie tylko zebranie dodatkowych informacji od kandydata, ale i zapewnić z nim odpowiednią komunikację.
Można byłoby powiedzieć – system idealny i adresujący wszystkie potrzeby obecnych kandydatów do pracy, w tym szybką reakcję na dokonane zgłoszenie oraz dostarczenie wiedzy jak proces rekrutacji będzie przebiegał. Jednak i tu, przy niezachowaniu odpowiedniej staranności podczas wdrożenia mogłoby dojść do katastrofy. Wystarczające byłoby wystąpienie w systemie błędu, który skutkowałby wykonywaniem do kandydatów nadmiernej liczby połączeń lub telefonów w niechcianych godzinach (np. w środku nocy), albo takiego który doprowadziłby do przekazywania kandydatom nieprawdziwych informacji o warunkach zatrudnienia.
Abstrahując od tego, że z pewnością mogłoby to zniechęcić do dalszych kontaktów z firmą rekrutującą pracowników, nie można wykluczyć, że takie działanie systemu zostałoby również poddane kontroli odpowiedniego organu z dalszymi konsekwencjami (w tym finansowymi) – szczególnie biorąc pod uwagę jak często w ostatnim czasie Urząd Ochrony Konkurencji i Konsumentów podejmuje interwencje w sprawie wadliwie funkcjonujących Voicebotów.
Wskazane ryzyka można zminimalizować między innymi poprzez przygotowanie odpowiednich scenariuszy testowych dla oprogramowania oraz uwzględnienie obowiązku ich przeprowadzania w umowie wdrożeniowej lub SAAS, czy też przez doprecyzowanie zasad odpowiedzialności dostawcy za działanie systemu.
Jak znaleźć tego jedynego?
Posiadając szeroką listę kandydatów, następuje proces wstępnej selekcji. I również tu algorytm jest w stanie wspomóc rekrutera. Tam gdzie dokonywany jest wybór kilku lub kilkunastu kandytatów z puli kilku tysięcy zgłoszeń, rolę zaczyna odgrywać matematyczny poziom dopasowania. W pierwszej kolejności zależy nam przecież na tych kandydatach, którzy spośród wszystkich spełniających nasze oczekiwania, będą spełniać te oczekiwania najlepiej.
Mówi się, że taki model preselekcji, oderwany od ludzkiej oceny, a bazujący na czystej matematyce, może ograniczyć ryzyko stronniczości i w konsekwencji dyskryminacji. Daniel Kahneman opierając się na badaniach przeprowadzonych z Amosem Tversky, przedstawił tezę, że algorytmizacja procesu podejmowania decyzji nie tylko nie będzie prowadzić do pogłębienia dyskryminacji, ale zgodnie z założeniami wręcz uchroni nas przed błędami wynikającymi z przypadkowości ocen oraz indywidualnych uprzedzeń. Oczywiście według badaczy, sam algorytm może być zdefiniowany stronniczo, ale skorygowanie tego jest stosunkowo proste, jeśli został on transparentnie opisany.
Niejako w kontrze można byłoby oczywiście przytoczyć historię Amazona, którego algorytm do rekrutacji poniósł spektakularną klęskę, przez doprowadzenie do dyskryminacji kandydatów płci żeńskiej (bazując na danych zatrudnienia w Amazon, algorytm przyjął założenie, że preferencją pracodawcy w zatrudnieniu są mężczyźni, wobec tego, że większość obsady była płci męskiej). Jednak czy możemy mieć pewność, że w tym przypadku zapewniono wymóg transparentności algorytmu, a może nie dochowano staranności, aby zweryfikować, czy algorytm nie będzie dyskryminujący? Na te pytania odpowiedź zna jedynie właściciel kodu.
Cathy O’Neil, wskazała, że przy podejmowaniu decyzji w zautomatyzowanym procesie, konieczny jest jednak udział ludzi, aby uniknąć wspomnianej zautomatyzowanej dyskryminacji. Według autorki ludzie w przeciwieństwie do algorytmów mają zdolność do ewolucji (oraz eliminowania ze swoich zachowań dyskryminacji), dzięki czemu mają przewagę nad algorytmami. Z pewnością ci którzy na tym etapie zostaną odrzuceni w oparciu o niewystarczający poziom dopasowania, nie tylko będą podejrzewać, że algorytm był stronniczy (jak wskazywała Cathy O’Neil), ale też nie będą z tego faktu zadowoleni, zakładając, że z pewnością mieliby większe szanse, gdyby tylko za decyzję o wykluczeniu z rekrutacji odpowiadał człowiek.
Rozsądne wydaje się wprowadzenie człowieka do podjęcia ostatecznej decyzji o wykluczeniu, co (na gruncie RODO) umożliwi niekwalifikowanie takiego procesu jako zautomatyzowanego podejmowania decyzji, za którym podąża szereg wymogów regulacyjnych.
Aby rozwiać wątpliwości rekrutowanych, rozsądne wydaje się (w ślad za wskazaniem Cathy O’Neil) wprowadzenie człowieka do podjęcia ostatecznej decyzji o wykluczeniu, co (na gruncie przepisów RODO) umożliwi niekwalifikowanie takiego procesu rekrutacji jako zautomatyzowanego podejmowania decyzji, za którym podąża szereg wymogów regulacyjnych. Można też wprowadzić prawo do odwołania się od decyzji komputera (nawet jeżeli końcowa decyzja człowieka byłaby taka sama jak tak podjęta przez sztuczną inteligencję), a w każdym przypadku konieczne jest szczegółowe audytowania algorytmu, aby uniknąć historii wspomnianego sklepu. Wszystkie te kwestie powinny naturalnie znaleźć odzwierciedlenie w umowie dotyczącej stworzenia lub korzystania z oprogramowania, aby w czasie incydentu nie było wątpliwości kto będzie ponosić odpowiedzialność.
Pomimo, że i ostatni element rekrutacji – czyli dobór zatrudnianego pracownika – również można byłoby oddać w „ręce” komputera, za rozsądne należy uznać realizowanie go przez człowieka. Nawet jeżeli rekrutacja będzie wspierana przez mechanizmy sztucznej inteligencji aby zminimalizować ryzyko wpływu naszych uprzedzeń na dobór, warto pamiętać, że na sukces doboru nie wpływają wyłącznie kwalifikacje kandydata, ale też pewna chemia, która łączy nas z tą osobą oraz intuicja doświadczonego rekrutera, kto w danej roli sprawdzi się najlepiej.
Pewnie można byłoby powiedzieć, że intuicja jest zwodnicza, niemniej jednak gdyby nie ona nasze zespoły nie istniałyby w tym kształcie w którym je uformowaliśmy, co pozwala nam chyba jej ostatecznie zawierzyć. Takie podejście przyjął w swoim globalnym programie rekrutacyjnym choćby Unilever gdzie poziom automatyzacji 3 etapów rekrutacji był wyjątkowo wysoki, choć ostatnie rozmowy przeprowadzone już przez ludzi.
Czy możemy wykorzystać AI do analizy mowy ciała?
Nowym trendem w wykorzystywaniu sztucznej inteligencji w rekrutacji jest analityka behawioralna. Rozbudowane algorytmy sztucznej inteligencji, bazując na analizie gestów, mowy ciała, czy też ekspresji mimicznej wideo nagrywanego przez kandydata (lub wideo rozmowy prowadzonej przez mechanizm AI) są w stanie ocenić wiarygodność, poziom koncentracji, pewność siebie, jak i odporność na stres kandydata. Tak bardzo jak jest to innowacyjne rozwiązanie, tak wiele wzbudza ono kontrowersji, nie tylko na gruncie przeświadczenia kandydatów, że nie jest to nic innego niż rozbudowana forma wariografu, ale też na gruncie przepisów o ochronie danych osobowych.
Od wielu lat toczy się dyskusja o dopuszczalności tego typu testów pod kątem ograniczeń, które zostały wprowadzone przez RODO do Kodeksu pracy. Jako, że wyniki tego typu badań są kwalifikowane jako dane szczególnie wrażliwe, a przepisy (poza regulacjami dotyczącymi kierowców i służb mundurowych) nie dają odrębnej podstawy do ich zbierania, jedyną możliwością jest odbieranie zgód od kandydatów na wykonanie takiego testu.
Jednak i tu pojawia się wątpliwość, czy nawet gdyby taka zgoda była udzielana, czy możliwe jest aby była ona swobodna i niewymuszona (co warunkuje możliwość jej udzielenia)? Raczej nie, dlatego też ograniczając ryzyko sporu z organem nadzoru, warto się zastanowić, czy akurat z tej funkcjonalności sztucznej inteligencji nie zrezygnować jednak w procesie doboru.
Niezależnie od ograniczeń regulacyjnych, jest jeszcze jeden powód, który powinien zmusić nas do refleksji przy podejmowaniu decyzji o inwestycji w tego typu rozwiązania. Jak się okazało, tam gdzie rozwija się technologia pozwalająca na wyczytanie u kandydatów większej liczby informacji niż sami są gotowi o sobie powiedzieć, tam sami uczestnicy procesów rekrutacyjnych również nie próżnują.
Na rynku zaczęły się pojawiać rozwiązania wykorzystujące technologię deep fake, która przy połączeniu video nakładała na twarz kandydata wirtualną maskę, nadającą osobie rekrutowanej ekspresję najbardziej pożądane przez system rekrutacyjny. Prowadził to do sytuacji w której system sztucznej inteligencji zaczyna de facto rekrutować inny system sztucznej inteligencji. Tylko czy przypadkiem po drodze nie zagubił się nam tak rekruter jak i sam kandydat?
Co nam przyniesie przyszłość?
Wykładniczy rozwój technologii doprowadził do tego, że znaczna część regulacji stała się anachroniczna. Przez to na wiele pytań odnoszących się do stosowania w sztucznej inteligencji nie ma gotowych odpowiedzi.
Z prawnego punktu widzenia głównym przedmiotem rozważeń jest obecnie spójność ze wspomnianymi regulacjami dotyczącymi ochrony danych osobowych, czy też ogólnymi zasadami równego traktowania w zatrudnieniu. Wszystko przy tym wskazuje na to, że już niedługo spojrzenie pracodawców na ten obszar będzie musiało być zdecydowanie szersze.
Jesteśmy w przededniu wprowadzenia w życie nowych unijnych regulacji dotyczących wykorzystywania sztucznej inteligencji. Niezależnie od tego, jaki będzie końcowy tekst przepisów, pewne jest to, że pracodawcy zostaną zobligowani do szczególnego zadbania o kwestie prywatności czy też o weryfikację stosowanych narzędzi pod kątem nienaruszania przez AI praw osób poddawanych jej rozstrzygnięciom. Od tego momentu nie będzie to oczkiem w głowie samych twórców narzędzi, ale także każdego jego użytkownika.
Oznacza to, że już dziś pracodawcy, którzy korzystają lub chcieliby zacząć korzystać z tego typu rozwiązań powinni zastanowić się czy i jak będą w stanie wypełnić te obowiązki. Audyt kodu, umowne przeniesienie odpowiedzialności na dostawcę, czy też testy systemu pod kątem jego niedyskryminacyjnej charakteru to tylko niektóre z elementów o których będziemy musieli pomyśleć, przed podjęciem decyzji o wdrożeniu, aby zadośćuczynić nowym wymogom.
Jak widać, obszar rekrutacji, pozostawia nam szerokie spektrum do wykorzystywania systemów opartej na sztucznej inteligencji. Rozsądny dobór dostępnych narzędzi może pozwolić nam na zaoszczędzenie czasu, odciążenie rekruterów od powtarzalnej pracy oraz zwiększyć precyzję wyboru. Jak w każdym przypadku stosowania rozwiązań z obszaru nowych technologii powinniśmy podchodzić do tego z rozsądkiem i ostrożnością adresując poszczególne ryzyka, zanim staną się rzeczywistym problemem. W innym wypadku, zamiast być beneficjentem, możemy stać się niechybnie ofiarą sztucznej inteligencji.
Michał Kibil, Senior Partner, współzałożyciel kancelarii DGTL, odpowiada za praktykę Prawa HR oraz – wspólnie z Irkiem Piecuchem – za praktykę Prawa Nowych Technologii