Ankieter do Twojej wymarzonej pracy może wkrótce zostać robotem
Ubiegam się o pracę. Ale proces aplikacji jest jeden Nigdy wcześniej nie doświadczyłem.
Nie udzielam mi wywiadu. Zamiast tego siedzę w domu, wpatrując się w laptopa. Moje odpowiedzi są nagrywane na wideo. A o tym, czy uda mi się dostać tę pracę, zadecyduje nie człowiek, ale maszyna.
jaki odcinek to rubinowa róża w oitnb
To może brzmieć jak odcinek Charliego BrookeraCzarne lustro, ale już za kilka lat oczekuje się, że tego rodzaju wirtualne wywiady staną się normą. Algorytmiczne „oceny przed zatrudnieniem”, jak się je nazywa, są już biznesem wartym wiele miliardów dolarów i prawdopodobnie staną się stałym elementem korporacyjnych decyzji o zatrudnieniu. HireVue — firma przeprowadzająca mój wywiad — jest jednym z liderów w tej dziedzinie. Siedziba firmy znajduje się nad brzegiem rzeki Jordan w stanie Utah, a jej klientami jest siedemset dużych firm, od Hilton Hotels po J.P. Morgan i Unilever. Jestem tylko jednym z ponad 10 milionów potencjalnych pracowników, które algorytmy HireVue oceniły już na podstawie podobnych wywiadów wideo.
Tak właśnie działała ich technologia sztucznej inteligencji w czasie, gdy brałem udział w rozmowie kwalifikacyjnej: wdrażając kolejną granicę sztucznej inteligencji — „emocjonalną sztuczną inteligencję” — „czyta” kandydatów do pracy, analizując ich leksykon, ton, kadencję i mimikę twarzy, biorąc pod uwagę aż dwadzieścia pięć tysięcy oddzielnych punktów danych. Wyniki zostały następnie porównane z wynikami „idealnego” kandydata do tej roli.
Fakt, że przez cały wywiad musiałem trzymać mój ekranowy tors w zarysowanej linią przerywaną sylwetki, oznaczał, że nie tylko czułem się jak ofiara morderstwa na miejscu zbrodni, ale nie mogłem być sobą.
W praktyce oznacza to, że każdy mój oddech, każda przerwa, wysokość, na którą unoszę brwi, jak mocno zaciskałem szczękę, jak szeroki mam uśmiech, mój dobór słów, jak głośno mówiłem, moja postawa, ile razy Powiedziałem, hmm, mój akcent, nawet moje użycie przyimków było rejestrowane i wprowadzane do algorytmu czarnej skrzynki, aby określić, czy jestem odpowiednią osobą do zatrudnienia w programie stażowym Vodafone. A raczej nie ja, ale „Irina Wertz”, mój tajny pseudonim.
Algorytmiczne oceny przed zatrudnieniem są niezaprzeczalnie opłacalnym rozwiązaniem dla potrzeb zatrudniania na dużą skalę. Biorąc pod uwagę, że duże korporacje co roku przyjmują znacznie ponad sto tysięcy kandydatów, korzystanie z tej technologii prawdopodobnie już pozwala zaoszczędzić tysiące roboczogodzin. Ponadto HireVue twierdzi, że wskaźniki retencji, a nawet wydajność pracy wśród pracowników wybranych przez ich system są znacznie wyższe niż przeciętne. Być może tak jest, ale moje doświadczenie tego procesu było bardziej niż trochę wyobcowane.
Kiedy odpowiadałem na pytania, które obserwowałem w rogu ekranu, doświadczenie było szczególnie performatywne, gdy wcielałem się w niepokojącą rolę zarówno aktora, jak i publiczności.
Fakt, że przez cały wywiad musiałem trzymać mój ekranowy tors w zarysowanej linią przerywaną sylwetki, oznaczał, że nie tylko czułem się jak ofiara morderstwa na miejscu zbrodni, ale nie mogłem być sobą. Pewien stopień nieautentyczności jest oczywiście nieunikniony we wszystkich rozmowach kwalifikacyjnych, biorąc pod uwagę, że próbuje się przedstawić spreparowaną, najlepszą możliwą wersję siebie, ale to było inne. Jestem osobą ekspresyjną — poruszam się, kiedy mówię, gestykuluję. Utkwiłem w mojej sylwetce, nie mogłem nawet tego zrobić. A ponieważ odpowiadałem na pytania, które obserwowałem, gdy robiłem to w rogu ekranu, doświadczenie to było szczególnie performatywne, gdy wcielałem się w niepokojącą rolę zarówno aktora, jak i publiczności.
W prawym górnym rogu ekranu znajdował się zegar odliczający, który dodawał stresującej natury doświadczenia. Miałem trzy minuty na udzielenie odpowiedzi na każde pytanie, ale lecąc na ślepo bez wszystkich zwykłych wskazówek, jakie otrzymuje od ankietera — mimika twarzy, ruchy głowy, gesty, uśmiechy, zmarszczki brwi — nie byłam pewna, czy trwam zbyt długo, czy też oczekiwano, że wykorzystam cały czas. I nie tylko nie miałam kogo zapytać, ale bez uśmiechów, oczu rzucających się w dół do mojego CV, bez mowy ciała do przeanalizowania, nie mogłam powiedzieć, czy mój „rozmówca” usłyszał wystarczająco dużo konkretnej odpowiedzi, co mi się podobało Mówiłem, rozumiałem moje żarty, wczuwałem się w moje historie, a może po prostu zdecydowałem, że nie jestem kandydatem, którego szukali.
Odarty z pełnego, złożonego człowieczeństwa musiałem zaimponować maszynie, której algorytmiczne działanie czarnej skrzynki nigdy nie poznałem. Na którym z moich „punktów danych” się skupiał i który miał największe znaczenie?
Tak więc w miarę postępu wywiadu czułem się coraz bardziej zagubiony, niezdolny do zastanawiania się, czy iść dalej, zwalniać, zmieniać biegi, zmieniać taktykę, zmieniać styl, uśmiechać się więcej, a mniej uśmiechać. Prawdopodobnie idealny kandydat na staż absolwencki w zakresie zasobów ludzkich w Vodafone uśmiecha się, ale ile razy i na jak długo?
Żeby było jasne, to nie to, że wchodziłem w interakcję z maszyną per se, sprawiało, że czułem się tak wyobcowany. To raczej nierównowaga sił między kobietą a maszyną była tak niepokojąca. Odarty z pełnego, złożonego człowieczeństwa musiałem zaimponować maszynie, której algorytmiczne działanie czarnej skrzynki nigdy nie poznałem. Na którym z moich „punktów danych” się skupiał i który miał największe znaczenie? Mój głos, moja intonacja, mój język ciała, czy treść tego, co mówię? Jakiej formuły użył do oceny mnie? I czy to było sprawiedliwe?
gdzie był kręcony film z płytkiej głębi
Jego algorytm zostanie wyszkolony na materiałach wideo z przeszłych lub istniejących „udanych pracowników”, co oznacza, że wszelkie historyczne uprzedzenia (świadome lub nieświadome) w zatrudnianiu prawdopodobnie zostaną powtórzone.
Zwykle nie myślimy o samotności w kontekście tego, jak czujemy się po interakcji z maszyną. Kiedy mówiłem o izolacji egzystencji bezkontaktowej, kładłem nacisk na brak bezpośredniego kontaktu z człowiekiem i jego wpływ. Ale jeśli samotność może być również spowodowana poczuciem niesprawiedliwego traktowania i pozbawienia władzy przez państwo i polityków, to może również wynikać z traktowania go w ten sposób przez Wielki Biznes i nowe technologie, które wdraża.
gdzie kręcono akwamaryn
Bo gdy pracodawca oddaje naszą zawodową przyszłość w ręce algorytmu, trudno uwierzyć, że będziemy traktowani sprawiedliwie lub będziemy mieli sensowne odwołanie. Częściowo dzieje się tak dlatego, że jest wysoce dyskusyjne, czy przyszłe występy można faktycznie określić na podstawie takich cech, jak mimika twarzy i ton głosu. Rzeczywiście, w listopadzie 2019 r. Elektroniczne Centrum Informacji o Prywatności — renomowana amerykańska organizacja badawcza działająca w interesie publicznym — złożył formalną skargę na HireVue z amerykańską Federalną Komisją Handlu, powołując się na „wykorzystywanie przez HireVue tajnych, niesprawdzonych algorytmów do oceny „zdolności poznawczych”, „cech psychologicznych”, „inteligencji emocjonalnej” i „zdolności społecznych” kandydatów do pracy”. Co ciekawe, od początku 2020 roku firma przestała korzystać z analizy twarzy, stwierdzając, że analiza wizualna ma mniejszą korelację z wydajnością pracy niż inne elementy oceny algorytmicznej. Jednak inne firmy nadal to robią.
Sztuczna inteligencja zajmująca się sortowaniem CV skutecznie nauczyła się, że podania zawierające nazwy żeńskich szkół wyższych lub nawet słowo „kobiecy” („kapitan kobiecej drużyny szachowej”) nie spełniały kryteriów.
Jest też kwestia stronniczości. Chociaż HireVue twierdziło wówczas, że jego metodologia eliminuje ludzkie uprzedzenia, jest to mało prawdopodobne. Dzieje się tak dlatego, że algorytmy są szkolone na materiałach wideo z przeszłych lub istniejących „zatrudnionych pracowników”, co oznacza, że wszelkie historyczne uprzedzenia (świadome lub nieświadome) w zatrudnianiu prawdopodobnie zostałyby powielone.
To właśnie wydarzyło się w Amazonie w 2018 roku, kiedy ujawniono, że sztuczna inteligencja firmy do sortowania CV była rutynowe odrzucanie CV kobiet , mimo że nigdy nie „poinformowano” o płci skarżących. Czemu? Skutecznie nauczył się, że podania, które zawierały nazwy żeńskich szkół wyższych, a nawet słowo „kobiece” („kapitan kobiecej drużyny szachowej”), nie były kwalifikowane. Stało się tak dlatego, że został on przeszkolony, aby wywnioskować, czy kandydaci byli „wykwalifikowani” czy „niewykwalifikowani” na podstawie danych z dziesięciu lat zatrudniania w branży, w której zdecydowaną większość kandydatów i pracowników stanowią mężczyźni. Nie trzeba dodawać, że w tej grupie było bardzo niewielu kapitanów kobiecych drużyn szachowych.
Dostosowanie algorytmu do radzenia sobie z uprzedzeniami tak oczywistymi jak płeć jest stosunkowo proste; w rzeczywistości inżynierowie Amazona byli w stanie z łatwością edytować model, aby przestać używać terminów takich jak „kobiety” jako powodu do dyskwalifikacji. Ale wyzwaniem związanym z uczeniem maszynowym jest to, że nawet jeśli uwzględni się najbardziej oczywiste źródła uprzedzeń (a niewątpliwie są one w wielu takich systemach), co z mniej oczywistymi, neutralnymi punktami danych, których można nawet nie uznać za stronnicze?
Wyciąg z Samotny wiek : Jak przywrócić ludzką więź w świecie, który się rozpada,wydane przez Currency, wydawnictwo Penguin Random House.
The Lonely Century Noreena Hertz Amazon 24,99 złKup TerazUwaga Eda: Ten fragment został zaktualizowany, aby odzwierciedlić, że HireVue nie używa już analizy wizualnej w swoim oprogramowaniu do rekrutacji.