Reklama

Jak algorytmy wypaczyły proces rekrutacji?

Fragment książki Cathy O'Neil "Broń matematycznej zagłady. Jak algorytmy zwiększają nierówności i zagrażają demokracji"

Jak algorytmy wypaczyły proces rekrutacji?
Reklama

Rozdział 6 
Niezdolni do służby 

W poszukiwaniu pracy 


   Kilka lat temu młody człowiek o imieniu Kyle Behm zrobił sobie przerwę w studiach na Uniwersytecie Vanderbilta. Cierpiał na chorobę dwubiegunową i potrzebował terapii. Po półtora roku stan Kyle’a poprawił się na tyle, że mógł powrócić na studia na innej uczelni. Mniej więcej w tym samym czasie dowiedział się od kolegi, że pobliska drogeria Kroger poszukuje pracownika na pół etatu. Była to praca za minimalne wynagrodzenie, w supermarkecie, wydawało się jednak, że Kyle nie będzie miał problemów, żeby ją dostać. Jego kolega, który zwalniał się z tego stanowiska, mógł za niego poręczyć.Kyle był studentem z dobrymi ocenami, więc proces rekrutacyjny wydawałsię jedynie formalnością.

   Jednak po wysłaniu zgłoszenia Kyle nie dostał telefonu z zaproszeniem na rozmowę kwalifikacyjną. Kiedy zapytał kolegę o przyczyny, ten odpowiedział mu, że dostał „czerwone światło” w teście osobowościowym, który musiał wypełnić w ramach aplikacji. Test był częścią programu selekcji pracowników opracowanego przez Kronos, firmę z okolic Bostonu, która dostarczała rozwiązań do zarządzania pracownikami. Kiedy Kyle opowiedział o całej historii swojemu ojcu, Rolandowi, który był prawnikiem, ten zapytał go, na jakiego typu pytania musiał odpowiedzieć . Kyle powiedział, że były bardzo zbliżone do testu Wielkiej Piątki, który musiał wypełnić w szpitalu psychiatrycznym. Test służy do oceny ludzi pod kątem ekstrawersji, ugodowości, sumienności, neurotyczności i otwartości na doświadczenie.
   Z początku dyskwalifikacja na kiepsko płatne stanowisko z powodu wyniku wątpliwego testu nie wydawała się wielkim problemem. Roland Behm zachęcał syna do składania aplikacji na inne stanowiska. Kyle jednak za każdym razem wracał z takimi samymi złymi wieściami. Wszystkie firmy, w których starał się o pracę, wykorzystywały ten sam test, a Kyle nie dostawał ofert. Roland wspominał później słowa Kyle’a: „Kilka lat temu miałem niemalże idealny rezultat w testach SAT i studiowałem na Vanderbilcie. Jeżeli teraz nie jestem w stanie dostać pracy za minimalną pensję, to co ze mną jest nie tak?”. Ojciec odpowiedział mu: „Nie wydaje mi się, żebyś był w aż tak kiepskim stanie”.
   Roland Behm nie mógł jednak wyjść ze zdumienia. Wyglądało na to, że pytania o zdrowie psychiczne eliminowały jego syna z rynku pracy. Postanowił zgłębić ten problem i szybko odkrył, że faktycznie wykorzystywanie testów osobowościowych w procesach rekrutacyjnych było powszechne w dużych korporacjach. Nie udało mu się jednak znaleźć wielu przypadków kwestionowania takich praktyk w sądach. Tłumaczył mi, że ludzie starający się o pracę i otrzymujący „czerwone światło”, rzadko kiedy dowiadywali się, że odrzuceno ich ze względu na wyniki testów. Nawet jeżeli uzyskiwali taką wiadomość, raczej nie decydowali się na włączenie do sprawy prawnika.
   Behm wysłał listy do siedmiu firm: Finish Line, Home Depot, Kroger, Lowe’s, PetSmart, Walgreen Co. i Yum Brands, informując je, że zamierza wystąpić przeciwko nim z pozwem zbiorowym ze względu na bezprawne stosowanie testów psychologicznych w procesie rekrutacyjnym.
    Do dnia ukończenia tej książki pozew ten znajdował się w toku postępowania sądowego. Spory będą zapewne dotyczyć tego, czy test Kronosa może być uznany za badanie medyczne, które w świetle Americans with Disabilities Act z 1990 roku nie może być wykorzystywane w procesie rekrutacyjnym. Jeżeli tak się okaże, sąd będzie musiał ustalić, czy odpowiedzialność za naruszenie tej ustawy ponoszą pozwane firmy czy Kronos.
   Kwestią istotną w tej książce jest natomiast to, w jaki sposób automatyczne systemy oceniają nas, kiedy poszukujemy pracy, oraz jakie kryteria są przez nie brane pod uwagę. Widzieliśmy już jak Beemzety zatruwają proces rekrutacyjny na uczelniach, zarówno w przypadku osób bogatych,
jak i tych z klasy średniej. Równolegle Beemzety w wymiarze sprawiedliwości w sprawach karnych osaczają miliony ludzi, z których większość jest biedna i nie miała szans na jakąkolwiek wyższą edukację. Osoby z każdej z tych grup zmagają się ze skrajnie odmiennymi problemami. Mają jednak coś wspólnego. Prędzej czy później będą potrzebować pracy.

   Kiedyś zdobycie pracy było w znacznej mierze kwestią tego, czy znałeś odpowiednie osoby. Kyle Behm, ubiegając się o pracę w Kroger, szedł tą właśnie drogą. Kolega dał mu znać o wakacie i polecił go. Przez dekady tak właśnie robiło się pierwszy krok w kierunku zatrudnienia bez różnicy, czy chodziło o pracę w warzywniaku, porcie, banku czy kancelarii prawnej. Następnie kandydaci byli z reguły zapraszani na rozmowę kwalifikacyjną, na której szef starał się wyrobić sobie zdanie na ich temat. Nader często przekładało się to na ocenę w jednej prostej kwestii: czy ten człowiek jest taki jak ja (albo inne osoby, z którymi dobrze się dogaduję)? Efektem tego systemu było ograniczenie szans znalezienia pracy przez osoby niemające przyjaznego wsparcia z wewnątrz, w szczególności jeżeli różniły się one pod względem rasy, pochodzenia etnicznego bądź wyznawanej religii. Również kobiety często bywały wykluczane z tej gry.

   Firmy takie jak Kronos wprowadziły naukowe podejście do zarządzania kapitałem ludzkim w przedsiębiorstwach, po części w dążeniu do większej sprawiedliwości tego procesu. Kronos powstał w latach 70., założony przez absolwentów MIT. Jego pierwszym produktem była nowa wersja zegara kontrolującego czas pracy, wyposażona w mikroprocesor. Urządzenie sumowało czas pracy pracowników i tworzyło automatyczne raporty. Dzisiaj może to się wydawać banalne, lecz dało to początek istnemu zalewowi elektronicznych rozwiązań do śledzenia i optymalizacji siły roboczej, które nadal rozprzestrzeniają się z zatrważającą prędkością.

   W miarę jak firma rozrastała się, tworzyła szeroki wachlarz narzędzi informatycznych do zarządzania siłą roboczą, włączając w to program Workforce Ready HR, który obiecywał wyeliminowanie „zgadywania” z procesu rekrutacyjnego. Na swojej stronie internetowej firma reklamowała go w następujący sposób: „Możemy pomóc ci w weryfikacji, zatrudnianiu oraz wprowadzaniu do pracy kandydatów wykazujących największe prawdopodobieństwo produktywności – najlepiej dopasowanych pracowników, którzy będą lepiej sprawdzać się w pracy i dłużej pracować”.

   Kronos jest częścią rozkwitającej branży. Procesy rekrutacyjne podlegają coraz intensywniejszej automatyzacji, wiele zaś nowych programów zawiera testy osobowości podobne to tego, któremu poddany został Kyle Behm. Według wyliczeń firmy badawczej Hogan Assessment Systems Inc., branża ta jest warta 500 milionów dolarów rocznie i każdego roku ta wartość rośnie o 10-15 procent. Josh Bersin z firmy consultingowej Deloitte szacuje, że takie testy stosowane są obecnie w stosunku do 60-70 procent potencjalnych pracowników w Stanach Zjednoczonych, w porównaniu do 30-40 procent sprzed pięciu lat.

   Z oczywistych względów programy te nie są w stanie pozyskać informacji o tym, w jaki sposób dana osoba faktycznie spisywałaby się w pracy. Na to odpowiedzieć może dopiero przyszłość. Tak więc programy, jak wiele innych w branży Big Data, muszą zadowolić się analizą pośrednich przesłanek. Zdążyliśmy już przekonać się, że zmienne pośrednie bywają nieprecyzyjne, a do tego nader często niesprawiedliwe zdefiniowane. W 1971 roku wypowiedział się nawet na ten temat Sąd Najwyższy Stanów Zjednoczonych, rozstrzygając w sprawie Griggs przeciwko Duke Power Company, że stosowanie w procesie rekrutacji testów na inteligencję było dyskryminujące, a przez to bezprawne. Można by oczekiwać, że sprawa ta poruszy sumienia osób odpowiedzialnych za rekrutację. Zamiast tego jednak, branża przerzuciła się na zamienniki w postaci testów osobowościowych, takich jak ten, który eliminował Kyle’a Behma.

   Nawet gdyby odłożyć na bok kwestie sprawiedliwości i legalności, badania wskazują, że testy osobowościowe są kiepskimi prognostykami wydajności w pracy. Frank Schmidt, profesor nauk ekonomicznych Uniwersytetu w Iowa, przeanalizował dane na temat produktywności w pracy z całego stulecia po to, by zmierzyć predykcyjną wartość poszczególnych procesów selekcyjnych. Testy osobowościowe wypadły bardzo kiepsko na skali. Były jedynie w jednej trzeciej tak skuteczne jak sprawdziany kompetencji poznawczych, pozostając przy tym daleko w tyle za weryfikacją rekomendacji. To szczególnie irytujące, zwłaszcza jeśli uwzględni się także inne badania wskazujące, że niektóre testy osobowościowe mogą pomóc pracownikom w poznaniu samych siebie. Można je również wykorzystywać w celu wzmacniania zespołów i poprawiania komunikacji. Bądź co bądź, tworzą one sytuacje, w których ludzie zaczynają zastanawiać się nad tym, jak lepiej pracować wspólnie. Już sam taki zamiar może przyczynić się do tworzenia lepszego środowiska pracy. Innymi słowy, gdybyśmy ustalili, że nasz cel to zadowolony pracownik, testy osobowościowe mogłyby okazać się pożytecznym narzędziem. My stosujemy je jednak po to, by odfiltrowywać kandydatów. Roland Behm, tłumaczy: „Podstawowym celem takich testów (…) nie jest wyłonienie najlepszego pracownika, lecz wykluczenie możliwie najmniejszym kosztem największej liczby kandydatów”.

   Wydawałoby się też, że testy osobowości łatwo jest przechytrzyć. Gdyby spróbować wykonać online któryś z testów Wielkiej Piątki, zadanie to wygląda na łatwe. Przy pytaniu: „Czy często masz wahania nastrojów?”, najmądrzejszym rozwiązaniem byłoby zaznaczenie odpowiedzi „nie”. Odpowiedź na kolejne: „łatwo wpadam w złość”, również powinna być negatywna. Która firma chciałaby zatrudniać narwańców?
   Tak naprawdę, firmy mogą mieć problemy prawne w związku z zadawaniem kandydatom tego typu pytań w trakcie rekrutacji. Inspektorzy pracy na Rhode Island odkryli, że sieć aptek CVS Pharmacy w sposób nielegalny odsiewała kandydatów cierpiących na choroby psychiczne, dając im do wypełnienia test osobowościowy, w którym musieli wskazywać, czy zgadzają się z takimi twierdzeniami jak: „Ludzie robią wiele rzeczy, które mnie złoszczą” lub „Nie ma sensu mieć bliskich przyjaciół, bo zawsze i tak kiedyś nas zawiodą”. O wiele bezpieczniejsze dla rekruterów jest stosowanie bardziej złożonych pytań, które zarazem są trudniejsze do przechytrzenia. W konsekwencji więc, wiele ze stosowanych obecnie testów zmusza kandydatów do trudnych wyborów, pozostawiając ich w przekonaniu, że jakiejkolwiek odpowiedzi by nie udzielili, i tak będzie źle.

   Przykładowo, McDonald’s prosił swoich przyszłych pracowników o wybranie twierdzenia (jednego z dwóch), które opisywałoby ich w najlepszy sposób: „Trudno być radosnym, kiedy dookoła jest tak wiele problemów do rozwiązania” oraz „Czasami potrzebuję zachęty, żeby zabrać się do roboty”.

   „Wall Street Journal” poprosił psychologa przemysłu Tomasa Chamorro-Premuzica o dokonanie analizy takich podchwytliwych pytań. Jego zdaniem pierwsza pozycja wychwytywała „różnice indywidualne w zakresie neurotyzmu i sumienności”, druga zaś „małą ambicję i zapał”. Tak więc przyszły pracownik musi przyznać się do winy: bądź w zakresie nerwowości, bądź lenistwa.

   Pytania zadawane przez Krogera były o wiele prostsze: „Jaki przymiotnik najlepiej opisuje cię w pracy: wyjątkowy czy zwyczajny?”.

   Zdaniem Chamorro-Premuzica, zaznaczenie „wyjątkowości” wskazuje na „wysoką samoocenę, otwartość i narcyzm”, podczas gdy wskazanie „zwyczajności” stanowi wyraz sumienności i samokontroli.

  Zwróćcie uwagę, że nie ma możliwości zaznaczenia obydwu pozycji. Kandydaci na pracowników muszą zaznaczyć jedną z opcji, nie mając pojęcia, w jaki sposób program zinterpretuje ich wybór. Niekiedy rezultaty analizy nie będą pozytywne. Przykładowo, w przedszkolach w całym kraju opiekunowie regularnie powtarzają dzieciom, że są wyjątkowe. Stanowi to próbę wzmocnienia ich samooceny oraz jest oczywiście zgodne z prawdą. Ale dwanaście lat później, kiedy student ubiegający się o kiepsko płatną pracę, wybierze opcję „wyjątkowy”, program może odczytać taką odpowiedź jako alarmującą. Kto chciałby zatrudniać ludzi ze skłonnościami do narcyzmu?

   Obrońcy takich testów podkreślają, że zawierają one wiele pytań oraz że żadna pojedyncza odpowiedź nie może prowadzić do dyskwalifikacji kandydata. Jednakże pewne schematy odpowiedzi już mogą i faktycznie dyskwalifikują. My zaś nie wiemy, jakie to schematy. Nikt nam nie powie, co tak naprawdę te testy starają się ustalić. Cały ten proces jest kompletnie nieprzejrzysty.

   Na domiar złego, po tym jak model ten zostanie skalibrowany przez ekspertów technicznych, nie otrzymuje niemalże żadnej informacji zwrotnej. Dobrego porównania znowu dostarcza świat sportu. Większość zawodowych drużyn koszykówki zatrudnia specjalistów od danych, którzy tworzą modele analizujące grę poszczególnych członków drużyny z uwzględnieniem szeregu zmiennych, takich jak prędkość na parkiecie, wysokość skoku, skuteczność rzutów wolnych oraz wielu, wielu innych czynników. Kiedy więc przychodzi pora naboru zawodników, Los Angeles Lakers zrezygnuje być może z pozyskania świetnego rozgrywającego z uniwersyteckiej drużyny Duke ze względu na jego niskie statystyki asyst. Rozgrywający muszą mieć świetne podania. Pod koniec kolejnego sezonu Lakersi odkryją może ze zdumieniem, że odrzucony przez nich zawodnik został wybrany Nowicjuszem Roku w drużynie Utah Jazz oraz prowadzi w lidze pod kątem liczby asyst. Wtedy Los Angeles Lakers może powrócić do swoich modeli i sprawdzić, co policzono nie tak. Może drużyna uniwersytecka, w której grał, nakłaniała go do zdobywania punktów, zniechęcając do asystowania? A może, grając w Utah, nauczył się czegoś istotnego na temat podań? Jakakolwiek by była przyczyna, Lakersi mogą dopracować swój model analityczny.

   Teraz wyobraźcie sobie, że Kyle Behm po odrzuceniu go przez Krogera otrzymuje pracę w McDonald’s. Okazuje się rozsądnym pracownikiem. Po czterech miesiącach zarządza już kuchnią, a rok później kieruje całym oddziałem. Czy ktokolwiek w Krogerze powróci do testów osobowościowych, by sprawdzić, w jaki sposób mogli się tak pomylić?

  Bez szans. Moim zdaniem różnica jest następująca: drużyny koszykarskie zarządzają jednostkami, z których każda jest potencjalnie warta miliony dolarów. Ich mechanizmy analityczne pełnią kluczową rolę w zapewnieniu przewagi nad konkurencją, są więc żądni danych. Bez ciągłego napływu informacji zwrotnej ich systemy stałyby się nieaktualne i niesprawne. Dla odmiany, firmy zatrudniające pracowników na pensjach minimalnych zarządzają stadami. Tną koszty, zastępując ekspertów od zasobów ludzkich maszynami, które filtrują ogromne grupy ludzi, zawężając je do mniejszych, łatwiejszych do do zarządzania. Dopóki w ich zasobach ludzkich nie wydarzy się coś naprawdę poważnego, na przykład fala kleptomanii czy lawinowy spadek produktywności, firma nie ma powodu, by modyfikować swój model selekcyjny. Spełnia on swoje zadanie, nawet jeżeli czasem zdarza mu się przeoczyć potencjalne gwiazdy.

   Firma może być zadowolona z takiego stanu rzeczy, cierpią na tym jednak ofiary jej automatycznych systemów. Jak możecie się domyślić, uważam, że testy osobowościowe stosowane przez działy rekrutacyjne są Beemzetami. Spełniają wszystkie kryteria. Po pierwsze, są powszechnie stosowane i mają ogromną siłę wpływu. Test wykorzystywany w oprogramowaniu firmy Kronos, ze wszystkimi swoimi wadami, jest rozpowszechniony w znacznej części branży rekrutacyjnej. Dawniej pracodawcy poszukujący pracowników bez wątpienia często działali pod wpływem osobistych uprzedzeń. Uprzedzenia te różniły się jednak w zależności od firmy. W którejś z nich mogło znaleźć się miejsce dla osoby takiej jak Kyle Behm. Obecnie tak nie jest. Kyle ma też na swój sposób szczęście. Kandydaci do pracy, zwłaszcza ci, którzy starają się o niskopłatne stanowiska, są odrzucani bezustannie i bardzo rzadko poznają przyczyny odmowy. Jedynie przypadek sprawił, że koledze Kyle’a udało się poznać i przekazać mu powód odrzucenia jego aplikacji. Wciąż należy jednak pamiętać o tym, że sprawa Kyle’a przeciwko wielkim firmom, wykorzystującym oprogramowanie Kronosa, zapewne nie zostałaby podjęta, gdyby jego ojciec nie był prawnikiem i do tego takim, który ma wystarczającą ilość czasu i pieniędzy, by wystąpić z szeroko zakrojonym pozwem. Wśród osób aplikujących na niskopłatne stanowiska taka sytuacja ma miejsce bardzo rzadko.

   Na koniec, weźmy jeszcze pod uwagę sprzężenie zwrotne, które ma miejsce w przypadku testów osobowościowych Kronosa. Odrzucając ludzi wykazujących pewne problemy ze zdrowiem psychicznym sprawia, że nie mogą oni znaleźć normalnej pracy, która pozwala im na normalne życie, a przez to jeszcze bardziej pogłębia ich izolację społeczną. Dokładnie takim sytuacjom miała zapobiegać Americans with Disabilities Act.


* * *
   Szczęśliwie, większość osób ubiegających się o pracę nie jest automatycznie odrzucana przez system. Ale każdy z szukających pracy musi jakoś sprawić, żeby jego aplikacja wylądowała na wierzchu sterty wniosków przeznaczonych do rozmowy kwalifikacyjnej. Nie od dziś stanowi to problem dla przedstawicieli mniejszości rasowych i etnicznych oraz kobiet.

   W latach 2001 i 2002, jeszcze przed ekspansją automatycznych systemów oceniających podania o pracę, badacze z Uniwersytetu w Chicago i MIT wysłali pięć tysięcy sfabrykowanych aplikacji w odpowiedzi na ogłoszenia zamieszczone w „Boston Globe” oraz „Chicago Tribune”. Zakres stanowisk sięgał od pracy urzędniczej po posady w obsłudze klienta i sprzedaży. Każde z podań zostało sformatowane pod kątem konkretnej rasy. Połowa z nich prezentowała osoby białe, z imionami i nazwiskami takimi jak Emily Walsh, Brendan Baker, pozostałe zaś, informujące o podobnych kwalifikacjach, były podpisywane Lakisha Washington, Jamaal Jones, co sugerowało pochodzenie afroamerykańskie. Badacze stwierdzili, że „białe” nazwiska otrzymywały o 50 procent więcej odpowiedzi niż „czarne”. Kolejne odkrycie było bodajże jeszcze bardziej uderzające. Biali kandydaci z mocnymi CV cieszyli się większym zainteresowaniem niż biali z kiepskimi kwalifikacjami, co wskazywało na to, że osoby prowadzące rekrutację zwracały uwagę na zawarte tam informacje. Jednakże w przypadku podań osób czarnoskórych jakość CV w zasadzie nie robiła różnicy. Wniosek był jasny: branża rekrutacyjna w oczywisty sposób nadal była przeżarta przez uprzedzenia rasowe.

   Jedynym sposobem na obejście takich uprzedzeń jest prowadzenie analizy kandydatów z zasłoniętymi oczami. W latach 70. orkiestry, które od zawsze były zdominowane przez mężczyzn, rozpoczęły organizację przesłuchań, w których kandydaci grali ukryci za zasłoną. Czynniki takie jak znajomości czy reputacja nagle przestawały się liczyć. Podobnie jak rasa czy uczelnia, którą ukończyli muzycy ubiegający się o pracę w orkiestrze. Muzyka zza zasłony musiała bronić się sama. Od tamtej pory liczba kobiet grających w najważniejszych orkiestrach zwiększyła się pięciokrotnie, chociaż nadal stanowiły one jedynie jedną czwartą ogólnej liczby muzyków.

   Problem tkwi jednak w tym, że niewiele zawodów może sobie pozwolić na stworzenie tak bezstronnego sposobu sprawdzania kandydatów do pracy. Muzycy za zasłoną mogą wykonywać pracę, o którą się starają, niezależnie od tego, czy chodzi o zagranie koncertu skrzypcowego Dvořáka, czy bossa novy na gitarze. W innych branżach pracodawcy muszą przeszukiwać aplikacje w poszukiwaniu umiejętności, które mogą dawać gwarancje sukcesu.

   Jak można się spodziewać, oddziały zarządzania zasobami ludzkimi wykorzystują automatyczne systemy w celu przetworzenia stert nadsyłanych podań. Prawda jest taka, że około 72 procent podań nigdy nie obejrzy ludzkie oko. Są one przetwarzane przez programy komputerowe, które wyszukują umiejętności i doświadczenie, na których zależy pracodawcom. Następnie każde podanie jest szeregowane w zależności od poziomu dopasowania do oferowanego stanowiska. Decyzja o tym, na której pozycji zakończyć czytanie podań, należy do osób odpowiedzialnych za rekrutację. Zawsze jednak prawdziwe jest to, że im więcej kandydatów zostanie wyeliminowanych
na pierwszym etapie, tym mniej godzin będą następnie musieli poświęcić pracodawcy na przeglądanie najlepiej pasujących dokumentów.

   Tak więc osoby, które ubiegają się o pracę, muszą tworzyć swoje CV mając z tyłu głowy, że będą one analizowane przez automatyczny system. Przykładowo, ważne jest, by porozmieszczać w nim wyrazy istotne z punktu widzenia konkretnego stanowiska. Mogą to być nazwy stanowisk (specjalista ds. sprzedaży, główny kontroler finansowy, architekt oprogramowania), języki (mandaryński, Java) bądź tytuły (summa cum laude, pracownik roku).

   Dla odmiany, zamieszczanie obrazów jest bezcelowe. Większość skanerów podań nie jest na razie w stanie ich przetwarzać. Mona Abdel-Halim, współzałożycielka portalu Resunate.com, ułatwiającego tworzenie podań o pracę, zwraca też uwagę, że wystawne czcionki jedynie dezorientują maszyny. Bezpieczne są proste, takie jak Arial czy Courier. Zapomnijcie też o symbolach, np. takich jak strzałki. Wprowadzają jedynie zamieszanie, ponieważ utrudniają automatycznym systemom poprawne formatowanie informacji.

   Podobnie jak w przypadku rekrutacji na uczelnie, stosowanie programów tego typu prowadzi do tego, że na wierzchu lądują podania osób, które dysponują pieniędzmi i zasobami pozwalającymi na odpowiednie przygotowanie dokumentów. Ludzie, którzy nie mogą sobie na to pozwolić, być może nigdy nie dowiedzą się, że wysyłają swoje CV prosto do czarnej dziury. To kolejny przykład tego, jak osoby bogate i dobrze poinformowane zyskują przewagę, podczas gdy osoby ubogie mają większe szanse na porażkę.

   Przyznać trzeba, że w branży rekrutacyjnej zawsze funkcjonowały takie lub inne uprzedzenia. Dawniej osoby mające odpowiednią wiedzę dokładały starań, by ich CV w sposób jasny i spójny informowały o kwalifikacjach, były tworzone za pomocą dobrej jakości sprzętu, np. elektronicznej maszyny do pisania IBM Selectric czy też zostały wydrukowane na papierze o wysokiej zawartości surowców wtórnych. Tego typu podania miały większe szanse na przejście oceny prowadzonej przez ludzi. Znacznie częściej w koszu lądowały podania napisane ręcznie bądź z rozmazaniami z tanich kopiarek. W pewnym sensie, nierówne drogi prowadzące do zatrudnienia nie są więc niczym nowym. Po prostu powróciły w nowym wcieleniu, tym razem pozwalając społecznym wygranym na łatwiejsze przejście elektronicznych barier.


Nierówne traktowanie spowodowane barierami tego typu nie kończy się zresztą na analizie CV. W coraz większym stopniu nasze utrzymanie zależy od umiejętności przekonania maszyn. Najlepszym przykładem jest Google. W każdym biznesie, nieważne czy jest to prowadzenie pensjonatu, czy warsztatu samochodowego, sukces zależy od tego, czy informacja o nim będzie pojawiała się na pierwszej stronie wyników wyszukiwania. Zwykli ludzie zmagają się z takimi samymi problemami, kiedy ubiegają się o zatrudnienie, wspinają po szczeblach kariery czy też usiłują przetrwać falę zwolnień. Kluczem jest zdobycie informacji o tym, czego poszukuje maszyna. Nawet jednak w cyfrowym wszechświecie, który miał być sprawiedliwy, naukowy i demokratyczny, osoby ze specjalistyczną wiedzą znajdują sposoby na zyskanie przewagi.
* * *
   W latach 70. biuro przyjęć St. George’s Hospital Medical School, uczelni medycznej w południowym Londynie, dostrzegło pewną możliwość. Rocznie szkoła otrzymywała ponad dwanaście wniosków na każde ze 150 wolnych miejsc. Przerobienie wszystkich tych dokumentów wymagało dużej pracy i wiązało się z koniecznością zatrudnienia kilku pracowników do weryfikacji. Do tego każda z tych osób miała inną koncepcję oraz założenia, więc cały proces był w pewnym stopniu niespójny. Czy byłoby możliwe takie zaprogramowanie komputera, aby sam sortował wnioski, redukując je do łatwiejszej do ogarnięcia liczby?

   Wielkie organizacje, takie jak Pentagon czy IBM, wykorzystywały już komputery do tego typu zadań. Jednakże pomysł, żeby pod koniec lat 70., czyli dokładnie wtedy, kiedy Apple debiutował ze swoim pierwszym komputerem osobistym, uczelnia medyczna stworzyła własny program weryfikacji wniosków, stanowił bardzo śmiały eksperyment.

   Projekt okazał się całkowitą klapą. Nie dość, że St George’s przedwcześnie zdał się na modelowanie matematyczne, to jeszcze na dodatek stał się nieświadomie pionierem w dziedzinie tworzenia Beemzetów.
   Tak jak ma to miejsce w przypadku wielu Beemzetów, problemy zaczęły się na samym początku, kiedy administratorzy ustalili dwojakie cele swojego modelu. Pierwszym miała być poprawa wydajności, dzięki temu, że prace wstępne wykonywała maszyna. W wyniku tego procesu wyjściowa liczba dwóch tysięcy aplikacji miała zostać zredukowana do pięciuset, które trafiłyby do ludzi prowadzących kolejny etap długiego procesu rekrutacyjnego. Drugim celem była sprawiedliwość. Komputer działał w oderwaniu od nastrojów i uprzedzeń, które cechują ludzi, był też wolny od wpływów i nacisków wywieranych przez arystokratów i członków rządu. Na tym pierwszym, automatycznym etapie weryfikacji każdy kandydat miał być oceniany według tych samych kryteriów.

   A jakie miały być te kryteria? Ta część wydawała się najłatwiejsza. Uczelnia miała przecież archiwalne akta weryfikacji dokonywanych w poprzednich latach. Wystarczyło więc nauczyć system komputerowy, jak powielać te same procedury, które wcześniej wykonywali ludzie. Pewnie już domyślacie się, gdzie tkwił problem. Komputer nauczył się od ludzi, jak dyskryminować, a swoje zadanie wykonywał z zapierającą dech skutecznością.

   Gwoli sprawiedliwości trzeba przyznać, że nie wszystkie przypadki dyskryminacji w danych wykorzystanych do uczenia komputera miały charakter wyłącznie rasistowski. Znaczna liczba podań zawierających obco brzmiące nazwiska lub zagraniczne adresy była składana przez ludzi, których znajomość języka angielskiego nie była doskonała. Zamiast jednak przyjąć założenie,
że wspaniali lekarze mogą nauczyć się angielskiego, co dzisiaj wydaje się oczywiste, praktyka szła w kierunku odrzucania takich podań. (Bądź co bądź uczelnia i tak musiała odrzucić trzy czwarte wniosków, a to wydawało się dobrym sposobem na początek).

  Podczas jednak gdy ludzie pracujący w St George’s konsekwentnie odrzucali podania zawierające błędy gramatyczne i językowe, komputer – sam w gruncie rzeczy niepiśmienny – nie bardzo był w stanie prześledzić ten proces. Potrafił jednak powiązać odrzucane wnioski z miejscem urodzenia oraz – w nieco mniejszym stopniu – z nazwiskami. W konsekwencji więc osoby z takich miejsc jak Afryka, Pakistan czy też z obszarów Wielkiej Brytanii zamieszkanych przez imigrantów otrzymywały niższą ogólną punktację i nie były zapraszane na rozmowy kwalifikacyjne. Znaczny odsetek tych ludzi nie był biały. Ludzcy weryfikatorzy nader często odrzucali również wnioski składane przez kobiety, kierując się jakże powszechnym przekonaniem,
że ich kariery z dużą dozą prawdopodobieństwa zostaną przerwane przez macierzyństwo. Maszyna oczywiście robiła to samo.

   W 1988 roku brytyjska rządowa Komisja Równości Rasowej uznała, że realizując swoją politykę rekrutacyjną uczelnia dopuszczała się dyskryminacji ze względu na płeć i rasę. Według komisji, każdego roku ze względu na rasę, pochodzenie etniczne lub płeć odrzucano co najmniej sześćdziesięciu kandydatów z ogólnej liczby dwóch tysięcy.

    Rozwiązaniem dla statystyków z uczelni – podobnie jak dla osób pracujących w innych branżach – powinno być stworzenie cyfrowej odmiany ślepego systemu przesłuchań muzyków, przez wyeliminowanie zmiennych pośrednich, takich jak geografia, płeć, rasa, nazwisko oraz koncentrowanie się wyłącznie na danych istotnych z punktu widzenia edukacji medycznej. Kluczowe w tym procesie jest poddanie analizie umiejętności każdego kandydata, posiadanych w momencie ubiegania się o przyjęcie, nie zaś ocenianie ich przez porównywanie z osobami, które wydają się podobne. Co więcej, trochę kreatywnego myślenia w St George’s pozwoliłoby rozwiązać problemy związane z podaniami, które składały kobiety lub cudzoziemcy. Rozwiązanie takie sugerował raport „British Medical Journal”, wydany równolegle z decyzją Komisji. Jeżeli dla solidnych kandydatów, problemem miały być braki językowe lub konieczność opieki nad dziećmi, zamiast odrzucać takie kandydatury, należało zapewnić im pomoc, organizując lekcje angielskiego lub opiekę dla dzieci na terenie uczelni po to, by umożliwić im studiowanie.

   To jest problem, do którego będę wracać w kolejnych rozdziałach. Raz po raz widzimy, że modele matematyczne są w stanie przesiewać dane i namierzać ludzi, którzy prawdopodobnie zmagają się z ogromnymi wyzwaniami, takimi jak przestępczość, ubóstwo czy kiepska edukacja. Od społeczeństwa zależy, czy ta wiedza zostanie wykorzystana w celu odrzucenia i karania takich osób, czy też po to, by wyciągnąć do nich pomocną dłoń i dostarczyć im zasobów, których potrzebują. Możemy wykorzystywać efekt skali oraz skuteczność, które dziś dają Beemzetom tak destrukcyjną moc. Wszystko zależy od tego, jakie postawimy sobie cele.
* * *
   Jak dotąd w rozdziale tym przyglądaliśmy się modelom odsiewającym kandydatów do pracy. W większości firm Beemzety są wykorzystywane po to, by ciąć koszty administracyjne oraz redukować ryzyko zatrudnienia złych ludzi (lub takich, którzy wymagają więcej szkolenia). W skrócie, celem tych filtrów jest więc oszczędzanie pieniędzy. Oczywiście zespoły zarządzające zasobami ludzkimi chętnie oszczędzają pieniądze, podejmując odpowiednie decyzje dotyczące zatrudnienia. Jednym z największych wydatków w firmie jest rotacja personelu, czyli potocznie mówiąc odejścia z pracy. Według wyliczeń Center for American Progress, zastąpienie pracownika zarabiającego 50 tys. dolarów rocznie kosztuje firmę około 10 tys. dolarów, czyli 20 procent jego rocznego wynagrodzenia. Zastąpienie wysoko wyspecjalizowanego pracownika może kosztować wielokrotność tej kwoty i sięga nawet równowartości dwuletniego wynagrodzenia.
   Jest w tej sytuacji jasne, że wiele modeli wykorzystywanych przy zatrudnianiu stara się kalkulować również prawdopodobieństwo, że dany kandydat będzie pracował przez dłuższy czas. Firma Evolv. Inc., obecnie część Cornerstone OnDemand, pomagała Xeroxowi w poszukiwaniu kandydatów do pracy w telefonicznym centrum obsługi klienta, gdzie zatrudniano ponad 40 tysięcy ludzi. Model oceny prawdopodobieństwa rezygnacji z pracy brał pod uwagę niektóre z typowych danych metrycznych, włączając w to przeciętny czas, który ludzie przepracowali w poprzednich miejscach. Znaleziono jednak również pewne mniej oczywiste powiązania. Osoby, które system klasyfikował jako „typy kreatywne”, wykazywały tendencję do dłuższej pracy w tym samym miejscu, podczas gdy osoby uzyskujące wysoką punktację z „dociekliwości” z większym prawdopodobieństwem szybciej kierowały swoje ciekawe umysły na inne obszary działania.
    Znacznie bardziej problematyczne było jednak powiązanie z geografią. Kandydaci mieszkający dalej od miejsca pracy wykazywali większą tendencję do rezygnacji. To wydaje się logiczne: długie dojazdy do pracy to udręka. Menedżerowie Xeroxa dostrzegli jednak inne powiązanie. Wiele osób skazanych na takie uciążliwe dojazdy pochodziło z biednych dzielnic. Zdecydowali się więc – i trzeba to im zaliczyć na plus – na usunięcie tej ściśle powiązanej z rezygnacjami zmiennej ze swojego modelu. Firma zdecydowała się więc na poświęcenie części swojej skuteczności na rzecz sprawiedliwości.
  Podczas jednak gdy analizy odejść skupiają się na kandydatach z najwyższym prawdopodobieństwem niesprawdzenia się w pracy, o wiele istotniejszym zadaniem kadr jest odnajdywanie przyszłych gwiazd, czyli ludzi, których inteligencja, inicjatywa i zapał są w stanie pozytywnie wpłynąć na funkcjonowanie całej organizacji. Na wyższych szczeblach gospodarki firmy poszukują pracowników myślących kreatywnie i dobrze pracujących w zespołach. Zadanie stawiane twórcom modeli matematycznych polega więc na wskazaniu tych bitów informacji w bezkresnym oceanie Big Data, które wiążą się z oryginalnością oraz umiejętnościami społecznymi.

    Sama zawartość CV już tutaj nie wystarcza. Większość z informacji tam zawartych – prestiżowa uczelnia, nagrody, a nawet konkretne umiejętności – to zaledwie zmienne pośrednie, zaledwie wskazujące tendencję do świadczenia pracy wysokiej jakości. Choć niewątpliwie istnieje związek pomiędzy talentem kandydata a posiadaniem dyplomu świetnej uczelni, decydowanie
na tej podstawie jest dalekie od doskonałości. Przykładowo, wiele talentów programistycznych – jak choćby młodociani hakerzy – wywodzi się z zupełnie innych środowisk niż prestiżowe szkoły. Do tego dochodzi jeszcze to, że CV pełne są przechwałek, a czasami nawet kłamstw. Szybki rzut oka na LinkedIn lub Facebooka pozwala systemowi na głębszą analizę kandydata, poprzez sprawdzenie jego kolegów i znajomych. Nadal jednak trudno jest przełożyć te dane na prognozę jednoznacznie wskazującą na to, czy dany inżynier będzie doskonałym dodatkiem do dwunastoosobowego zespołu konsultingowego w Palo Alto czy Fort Worth. Znalezienie osoby pasującej do takiej roli wymaga o wiele szerszej analizy danych oraz znacznie ambitniejszego modelu.

   Pionierem w tej dziedzinie jest Gild, start-up z siedzibą w San Francisco. Wychodząc znacznie poza informacje z CV o macierzystych uczelniach kandydatów, Gild przeszukuje miliony stron poświęconych szukaniu pracy, analizując coś, co określa mianem „danych społecznych”. Dla swoich klientów, w większości działających w branży technologicznej, firma ta tworzy profile kandydatów do pracy, uaktualniając je w miarę jak kandydaci zdobywają nowe umiejętności. Gild twierdzi nawet, że jest w stanie przewidzieć, kiedy taka gwiazda wśród pracowników będzie najprawdopodobniej chciała zmienić pracę, uprzedzając swoich klientów o najlepszym momencie na złożenie oferty zatrudnienia. Model stosowany przez Gild próbuje jednak określać „kapitał społeczny” pracowników nie tylko pod kątem ilościowym, lecz również jakościowym. Jak istotną rolę pełni dana osoba w swojej społeczności programistów? Czy dzieli się z innymi napisanym przez siebie kodem? Powiedzmy, że pewien brazylijski programista mieszkający w São Paulo – nazwijmy go Pedro – spędza każdy wieczór od kolacji do pierwszej w nocy na łączeniu się z innymi koderami na całym świecie, w portalach takich jak GitHub czy Stack Overflow, rozwiązując problemy przetwarzania w chmurze i urządzając burze mózgów na temat algorytmów w grach. Model mógłby próbować wymierzyć pasję Pedra (i zapewne uzyskałby wysoki wynik), podobnie jak poziom jego zaangażowania w środowisku. Oceniłby ponadto jego umiejętności oraz znaczenie społeczne jego kontaktów. Osoby z większą liczbą obserwujących w mediach społecznościowych liczyłyby się bardziej. Gdyby do tego Pedro regularnie komunikował się online z takimi tuzami jak Sergey Brin z Google’a bądź Palmer Luckey, założyciel Oculus VR, firmy specjalizującej się w tworzeniu wirtualnej rzeczywistości, jego punktacja społeczna bez wątpienia byłaby skrajnie wysoka.

   Jednak modele takie jak ten stosowany przez Gild rzadko kiedy są w stanie wyciągnąć z danych tak wyrafinowane sygnały. Muszą więc rozszerzać obszar poszukiwań, tropiąc powiązania z wybitną wydajnością w pracy wszędzie tam, gdzie tylko są szanse na ich odnalezienie. Mając w swojej bazie danych ponad sześć milionów programistów, firma może dopasowywać się do przeróżnych schematów. Vivienne Ming, szefowa pionu naukowego w Gild, powiedziała w wywiadzie dla „Atlantic Monthly”, że jej firma odkryła żyłę talentów, śledząc ruch na pewnym japońskim portalu poświęconym komiksom manga. Oczywiście, jeżeli Pedro również spędza czas przeglądając zasoby tego portalu, nie będzie to jeszcze samodzielna przesłanka prognozowania jego wybitności w pracy, ale bez wątpienia zwiększy to jego punktację.

   To może sprawdzić się w przypadku Pedra, ale inni cenni pracownicy być może robią w sieci inne rzeczy, których nie są w stanie wychwycić nawet najbardziej zaawansowane algorytmy, przynajmniej na razie. Mogą opiekować się dziećmi albo uczęszczać na spotkania klubu czytelnika. Fakt, że potencjalny pracownik nie spędza sześciu godzin dziennie dyskutując na temat mangi, nie powinien świadczyć na jego niekorzyść. Dodatkowo, podobnie jak większość ulubionych portali świata techniki, również ten jest zapewne zdominowany przez mężczyzn. Zawiera też dodatkowo podtekst seksualny, co sprawia, że kobiety w tej branży będą go raczej unikać.

   Należy też pamiętać, że Gild jest tylko jednym z graczy na rynku. Nie jest globalnym gigantem, dlatego jego działania nie wyznaczą raczej standardu w branży. W porównaniu z niektórymi przerażającymi praktykami, które już poznaliśmy – drapieżne reklamy wpędzające w długi całe rodziny czy testy osobowościowe pozbawiające ludzi szans na zatrudnienie – firma Gild jest łagodna jak baranek. Stosowany przez nią model prognostyczny ma więcej wspólnego z nagradzaniem ludzi niż ich karaniem. Nie ulega wątpliwości, że dokonywane przez nią analizy są nierówne; niektóre potencjalne gwiazdy z pewnością zostaną przeoczone. Na razie nie uważam jednak, żeby kopalnie talentów urastały do rangi prawdziwych Beemzetów.

   Należy jednak pamiętać, że tego typu modele zatrudniania i pozyskiwania pracowników rozwijają się z nadmiernym impetem. Świat danych ciągle się rozrasta, a każdy z nas produkuje coraz większe zasoby danych dotyczących naszego życia. Wszystkie te dane zasilają naszych potencjalnych pracodawców, dając im wgląd w nas samych.

    Czy wgląd ten będzie służył jedynie testowaniu, czy też zostanie wykorzystany do usprawiedliwienia istniejącego stanu rzeczy i wzmocnienia uprzedzeń? Kiedy patrzę na nieudolne i egoistyczne sposoby przetwarzania danych przez niektóre firmy, przychodzi mi na myśl frenologia, pseudonaukowa dziedzina wiedzy, która przez chwilę była w modzie w XIX wieku. Frenolodzy badali palcami czaszki pacjentów w poszukiwaniu wzgórków i wgłębień. W ich przekonaniu każde z nich było powiązane z określonymi cechami osobowościowymi, zakodowanymi w którymś z dwudziestu siedmiu obszarów mózgu. Z reguły wnioski frenologów szły w parze z czynionymi przez nich obserwacjami. Jeżeli pacjent był chorobliwie niespokojny lub cierpiał na alkoholizm, badanie czaszki zazwyczaj prowadziło do odnalezienia wzgórków i dołków powiązanych z tą obserwacją – co z kolei wzmacniało wiarę w skuteczność metod frenologów.

   Frenologia była modelem, który bazował na pseudonaukowym nonsensie i prowadził do kategorycznych twierdzeń. Przez dekady nauka ta funkcjonowała bez przeszkód. Branża Big Data może wpaść w tę samą pułapkę. Modele takie jak ten, który przekreślił szanse Kyle’a Behma na zatrudnienie oraz eliminował zagranicznych studentów z uczelni St. George’s, mogą prowadzić do wykluczania ludzi pomimo tego, że „element naukowy”, na którym zostały oparte, nie jest niczym więcej niż zbiorem niezweryfikowanych założeń.

Tłumaczenie:Marcin Z. Zieliński 

Wydawnictwo Naukowe PWN, Warszawa 2017

Reklama

Polecane wideo

Polecamy również

Reklama

Inne artykuły

Reklama