Zautomatyzowane systemy oceny wydajności pracowników a ryzyko sporów sądowych

1
27
4.3/5 - (3 votes)

Nawigacja:

Cel stosowania zautomatyzowanych systemów oceny wydajności

Organizacje sięgają po zautomatyzowane systemy oceny wydajności przede wszystkim z dwóch powodów: chcą podejmować decyzje oparte na danych i obniżać koszty procesów HR. Jednocześnie każdy taki system bezpośrednio wpływa na sytuację prawną pracowników: na wysokość premii, awanse, przydział zadań, a niekiedy na rozwiązanie umowy. Dlatego każdy błąd w projektowaniu i stosowaniu automatycznej oceny wydajności bardzo szybko zamienia się w ryzyko sporu sądowego.

Najrozsądniejsze podejście polega na jednoczesnym myśleniu o efektywności biznesowej i ochronie praw pracowniczych. System, który jest „twardy” z punktu widzenia KPI, ale nie do obrony przed sądem pracy czy organem ochrony danych, w praktyce jest kosztowną iluzją oszczędności.

Czym są zautomatyzowane systemy oceny wydajności i gdzie się je stosuje

Od prostych scoringów do zaawansowanych modeli AI

Pod wspólną etykietą „zautomatyzowane systemy oceny wydajności pracowników” kryją się narzędzia o bardzo różnym poziomie złożoności. Inaczej wygląda zwykły raport z CRM, inaczej system regułowy, a jeszcze inaczej model uczenia maszynowego, który samodzielnie wylicza „ryzyko niskiej wydajności”. Z prawnego punktu widzenia istotne jest nie tyle to, jak zaawansowana jest technologia, ile to, czy na podstawie wyników systemu zapadają decyzje wpływające na sytuację pracownika.

Proste narzędzia raportowe (np. dashboardy w Excelu, Power BI, raporty z CRM) agregują dane i przedstawiają je w czytelnej formie: liczba obsłużonych spraw, konwersje sprzedaży, czas odpowiedzi. Decyzję menedżer podejmuje sam, choć oczywiście raport mocno go ukierunkowuje. Zazwyczaj trudno tu mówić o „zautomatyzowanym podejmowaniu decyzji” w rozumieniu RODO czy AI Act, dopóki to człowiek analizuje dane, waży kontekst i może podjąć inną decyzję niż sugeruje wykres.

Systemy regułowe operują na zasadzie „jeśli–to”: jeśli liczba obsłużonych zgłoszeń spadnie poniżej X przez Y dni, to obniż bonus o Z; jeśli pracownik ma trzy kolejne okresy z wynikiem poniżej progu, wygeneruj rekomendację rozmowy dyscyplinującej. Reguły tworzy człowiek, ale ich egzekwowanie jest automatyczne. Jeśli wynik systemu jest przyjmowany przez menedżerów bezrefleksyjnie, praktycznie mamy automatyczną decyzję.

Modele uczenia maszynowego i AI idą dalej: system sam uczy się na historycznych danych, jakie zachowania lub wskaźniki wiązały się z „wysoką wydajnością” według dawnych ocen. Na tej podstawie ocenia obecnych pracowników albo prognozuje, kto ma „wysokie ryzyko odejścia”, „niski potencjał rozwojowy” czy „zbyt niski performance”. Często są to modele mało przejrzyste nawet dla ich twórców. Tu pojawia się problem transparentności, wyjaśnialności i kontroli uprzedzeń.

Typowe źródła danych wykorzystywane do oceny

Algorytmiczna ocena pracowników opiera się na wielu kategoriach danych. Im więcej danych, tym większa potencjalna moc predykcyjna, ale również większe ryzyko prawne i etyczne. W praktyce najczęściej wykorzystywane są:

  • Dane o czasie pracy – logowania do systemów, wejścia i wyjścia z budynku, aktywność w aplikacjach firmowych, czas przy komputerze, przerwy. Tu granica między legalnym monitorowaniem a nadmierną inwigilacją jest bardzo cienka.
  • KPI sprzedażowe i operacyjne – liczba transakcji, wartość sprzedaży, liczba zamkniętych zgłoszeń, SLA, wskaźniki jakości obsługi klienta, liczba błędów.
  • Logi systemowe i dane z narzędzi komunikacyjnych – częstotliwość udziału w spotkaniach, liczba wysłanych wiadomości, czas reakcji na e-maile lub komunikatory, interakcje w narzędziach do zarządzania projektami.
  • Dane produkcyjne – wydajność linii, liczba wyprodukowanych elementów, przestoje, reklamacje przypisane do danej zmiany czy brygady.
  • Dane miękkie – wyniki ankiet 360, oceny przełożonych, wyniki testów kompetencyjnych. Tu szczególnie łatwo o przeniesienie istniejących uprzedzeń do modelu algorytmicznego.

Przy doborze danych fundamentalne znaczenie ma zasada minimalizacji z RODO: zbierane i analizowane informacje muszą być adekwatne, stosowne i ograniczone do tego, co niezbędne dla celu oceny. Wykorzystanie logów z komunikatorów do oceny wydajności może być trudne do obrony, jeśli wcześniej zakres takiego monitoringu nie był jasno zakomunikowany i uzasadniony.

Zastosowania w różnych branżach i formach pracy

Ocena zautomatyzowana różni się w zależności od sektora i charakteru pracy. W call center dominują twarde metryki: liczba odebranych połączeń, średni czas rozmowy, sprzedaż krzyżowa. W logistyce – liczba skompletowanych paczek, czas załadunku, wskaźniki błędów. W pracy biurowej i IT systemy oceny wydajności coraz częściej opierają się na danych z narzędzi kolaboracyjnych, repozytoriów kodu czy systemów ticketowych.

W pracy zdalnej dodatkową pokusą jest „monitoring aktywności” – narzędzia mierzące ruch myszki, czas aktywnego okna, zrzuty ekranu. To jeden z najbardziej podatnych na spory obszarów: łatwo tu przekroczyć granicę proporcjonalności i naruszyć prywatność pracownika, co może zakończyć się postępowaniem przed organem ochrony danych lub sądem pracy z powodu naruszenia dóbr osobistych.

Im bardziej „zliczalna” praca, tym silniejsza tendencja do pełnej automatyzacji scoringu. Natomiast w zawodach eksperckich, kreatywnych czy menedżerskich proste KPI nie oddają realnej wartości pracy. Tam nadmierne poleganie na algorytmach często prowadzi do sporów, bo pracownicy słusznie wskazują, że system ignoruje kontekst, złożoność zadań czy nieprzewidziane sytuacje.

Granica między wsparciem menedżera a faktycznym podejmowaniem decyzji przez system

Kluczowe z perspektywy RODO, prawa pracy i nadchodzącego AI Act jest rozróżnienie: czy system tylko wspiera menedżera, czy de facto podejmuje za niego decyzję. Zewnętrznie może wyglądać to podobnie, ale praktyka organizacyjna robi wielką różnicę.

Jeśli wynik algorytmu jest jedynie jednym z kilku elementów, które menedżer bierze pod uwagę, ma on pełne prawo odstąpić od sugestii systemu, a każda decyzja wymaga indywidualnego uzasadnienia – mówimy o wsparciu decydenta. Taka konfiguracja jest z punktu widzenia RODO bezpieczniejsza, choć wciąż wymaga spełnienia wymogów dotyczących przejrzystości i minimalizacji.

Jeżeli jednak reguła brzmi: „bonus naliczany jest automatycznie zgodnie ze scoringiem systemu”, a menedżer nie ma realnej możliwości odstępstwa, to w praktyce mamy zautomatyzowane podejmowanie decyzji, nawet jeśli formalnie w regulaminie widnieje klauzula „menedżer zatwierdza premię”. Organy nadzorcze coraz częściej patrzą na faktyczny przebieg procesu, a nie na deklaracje w dokumentach.

Spotkanie biznesowe różnych specjalistów omawiających warunki zatrudnienia
Źródło: Pexels | Autor: Tima Miroshnichenko

Ramy prawne: prawo pracy, RODO i nadchodzący AI Act

Kiedy system jest „zautomatyzowanym podejmowaniem decyzji” w rozumieniu RODO

Art. 22 RODO ogranicza stosowanie zautomatyzowanego podejmowania decyzji, w tym profilowania, wywołującego wobec osoby skutki prawne lub w podobny sposób istotnie na nią wpływające. Ocena wydajności, która decyduje o premii, awansie, degradacji czy rozwiązaniu umowy, bez wątpienia istotnie wpływa na sytuację osoby. Kluczowe pytanie brzmi: czy decyzja jest „zautomatyzowana”?

Za zautomatyzowaną uznaje się decyzję, gdy:

  • opiera się wyłącznie na przetwarzaniu automatycznym (bez znaczącej ingerencji człowieka), oraz
  • wywołuje skutki prawne lub w podobny sposób istotnie wpływa na osobę.

Jeżeli algorytm sam nalicza premię według ustalonego algorytmu i nie ma realnej, indywidualnej weryfikacji przez człowieka – mamy klasyczny przykład zastosowania art. 22. Wtedy pojawia się obowiązek m.in. zapewnienia prawa do uzyskania interwencji ludzkiej, wyrażenia własnego stanowiska i zakwestionowania decyzji.

Organizacje często próbują „uciec” od art. 22 wprowadzając formalną akceptację decyzji przez przełożonego. Jednak jeśli w praktyce akceptacja jest czysto technicznym kliknięciem „zatwierdź”, bez realnej analizy, to będzie trudne do obrony w razie sporu z pracownikiem czy kontroli organu nadzorczego.

Podstawowe obowiązki pracodawcy z prawa pracy

Oprócz RODO, o wiele prostszą, ale równie twardą podstawę sporu stanowi prawo pracy. W Polsce, ale też w innych porządkach prawnych, pracodawcę wiążą m.in. obowiązki:

  • równego traktowania pracowników w zatrudnieniu, bez względu na płeć, wiek, niepełnosprawność, rasę, religię, narodowość, przekonania polityczne, przynależność związkową, pochodzenie etniczne, wyznanie, orientację seksualną czy rodzaj umowy;
  • zakazu dyskryminacji bezpośredniej i pośredniej, w tym poprzez pozornie neutralne kryteria, które w praktyce uderzają w chronione grupy;
  • obowiązku dbałości o dobro pracownika, poszanowania jego godności i innych dóbr osobistych;
  • obowiązku informacyjnego – przejrzyste zasady wynagradzania, premiowania i oceny pracy.

Zautomatyzowany system oceny wydajności, który faworyzuje określoną grupę (np. osoby bez zobowiązań rodzinnych, młodsze, gotowe zostawać w pracy po godzinach), łatwo może zostać zakwalifikowany jako mechanizm dyskryminujący. Nawet jeśli nigdzie nie pada słowo „wiek” czy „rodzicielstwo”, sądy analizują efekty działania systemu, a nie tylko jego deklarowane założenia.

RODO: profilowanie, podstawy prawne i test równowagi

Profilowanie w miejscu pracy, czyli automatyczna analiza danych o pracowniku w celu oceny jego cech, zachowań i wydajności, wymaga solidnej podstawy prawnej. W praktyce najczęściej w grę wchodzi:

  • niezbędność do wykonania umowy o pracę – bardzo wąski zakres, trudno na tej podstawie oprzeć złożony system scoringowy;
  • obowiązek prawny ciążący na pracodawcy – raczej w kontekście czasu pracy, BHP, nie zaś zaawansowanej analityki HR;
  • prawnie uzasadniony interes pracodawcy (art. 6 ust. 1 lit. f RODO) – najczęściej stosowana, ale wymagająca solidnego testu równowagi między interesem pracodawcy a prawami pracownika;
  • zgoda pracownika – w relacji zależności pracowniczej rzadko jest dobrym rozwiązaniem, bo trudno mówić o rzeczywistej dobrowolności.

Przy powoływaniu się na prawnie uzasadniony interes konieczne jest udokumentowanie, że:

  • cel (np. poprawa jakości obsługi, optymalizacja kosztów) jest rzeczywiście istotny,
  • analiza wydajności jest do tego celu potrzebna,
  • stosowane środki są proporcjonalne i nie naruszają nadmiernie prywatności ani godności pracownika.

Brak udokumentowanego testu równowagi jest jedną z pierwszych rzeczy, które wypłyną przy kontroli organu ochrony danych lub w procesie sądowym dotyczącym naruszenia RODO.

Szczególne kategorie danych i ich „przemycanie” do modeli

Zautomatyzowana ocena wydajności może nieświadomie przetwarzać lub wykorzystywać szczególne kategorie danych osobowych (np. dane zdrowotne, poglądy, przynależność związkową), nawet jeśli nie są jawnie zebrane. Dzieje się to na dwa sposoby:

  • Bezpośrednio – gdy do modelu trafiają dane o absencjach chorobowych, szczególnych uprawnieniach pracowników z tytułu niepełnosprawności czy przynależności związkowej.
  • Pośrednio – gdy model „uczy się”, że określone wzorce zachowań typowe dla osób chorujących przewlekle, kobiet w ciąży czy członków związku zawodowego korelują z niższą wydajnością i zaczyna negatywnie ich punktować, mimo że taka cecha nigdy nie była jawnie wprowadzona do systemu.

W obu przypadkach ryzyko naruszenia RODO i przepisów antydyskryminacyjnych jest bardzo wysokie. Szczególne kategorie danych są chronione znacznie ostrzej, a ich przetwarzanie bez wyraźnej podstawy prawnej zwykle będzie bezprawne. „Niewidzialne” wprowadzenie ich do modelu algorytmicznego (np. poprzez dane pośrednie) nie zwalnia pracodawcy z odpowiedzialności.

Nadchodzący AI Act a systemy HR

AI Act, czyli rozporządzenie Unii Europejskiej dotyczące sztucznej inteligencji, klasyfikuje systemy wykorzystujące AI do rekrutacji, awansów i oceny wydajności jako systemy wysokiego ryzyka. Oznacza to szereg dodatkowych wymogów:

  • systematyczne zarządzanie ryzykiem – identyfikacja i ograniczanie ryzyk dla zdrowia, bezpieczeństwa, praw podstawowych pracowników;
  • Transparentność i wyjaśnialność algorytmów jako wymóg prawny

    AI Act mocno akcentuje wymóg przejrzystości. W praktyce oznacza to konieczność zapewnienia:

  • zrozumiałego opisu logiki działania systemu – nie w kategoriach czysto technicznych („model gradient boosting na 200 drzewach”), ale biznesowych: jakie dane są analizowane, jakie wskaźniki liczone, co wpływa na ocenę w górę, a co w dół;
  • wyjaśnialności na poziomie jednostkowym – pracownik, który otrzymał niższy bonus lub gorszą ocenę, musi móc uzyskać informację, które czynniki i w jakim kierunku wpłynęły na wynik;
  • dokumentacji procesu projektowania i testowania – rejestrowania założeń modelu, wersji algorytmu, zmian parametrów i wyników testów;
  • kontroli człowieka – wyznaczenia osób odpowiedzialnych za nadzór, z możliwością wstrzymania używania systemu, jeżeli wyniki budzą wątpliwości.

Brak przejrzystości to jeden z najszybszych zapalników sporu. Gdy pracownik słyszy jedynie: „tak wyszło z systemu”, łatwo przechodzi od rozczarowania do zarzutu dyskryminacji lub nierównego traktowania. Po drugiej stronie pracodawca, który nie potrafi „rozłożyć na czynniki pierwsze” decyzji algorytmu, staje na z góry przegranej pozycji dowodowej.

Obowiązki dokumentacyjne i audytowe w świetle AI Act

Systemy wysokiego ryzyka w HR wymagają zbudowania i utrzymywania całego „śladu audytowego”. Chodzi nie tylko o jednorazowe wdrożenie, ale o cykliczny przegląd.

Typowy zestaw elementów, który jest potrzebny, obejmuje m.in.:

  • opis przeznaczenia systemu – do czego dokładnie służy, w jakich procesach jest używany (ocena roczna, premiowanie kwartalne, decyzje o awansie);
  • specyfikację danych – jakie kategorie danych trafiają do modelu, z jakich źródeł, przez jaki okres są przechowywane;
  • analizę ryzyka dla praw pracowniczych – zidentyfikowane zagrożenia (np. profilowanie zdrowotne, faworyzowanie określonych grup) oraz sposoby ich ograniczenia;
  • wyniki testów niedyskryminacyjnych – sprawdzenie, czy model nie działa gorzej wobec określonych grup (np. starszych pracowników, osób z przerwami w zatrudnieniu);
  • procedury obsługi skarg – jak pracownik może zgłosić zastrzeżenie, kto analizuje sprawę, w jakich terminach i w jaki sposób system może zostać skorygowany.

W sporach sądowych i kontrolach UODO ta dokumentacja staje się głównym materiałem dowodowym. Brak takich materiałów często jest oceniany jako co najmniej rażące niedbalstwo przy wdrożeniu narzędzi AI.

Ryzyka prawne związane z automatyczną oceną wydajności

Dyskryminacja pośrednia i jawna stronniczość modelu

Najbardziej oczywiste ryzyko to dyskryminacja – nie zawsze wprost, częściej pośrednia. Modele zasilane danymi historycznymi powielają dotychczasowe wzorce, w tym uprzedzenia organizacji. Jeżeli przez lata awansowano głównie osoby młodsze, zazwyczaj dostępne dane „nauczą” system, że młody wiek koreluje z wysoką „przewidywaną efektywnością” przy awansach.

Źródłem konfliktów jest zwykle nie sam fakt użycia modelu, ale brak kontroli nad jego efektami. Dwa typowe scenariusze:

  • różnicowanie między działami lub lokalizacjami – algorytm premiuje osoby pracujące w określonych godzinach lub trybie (np. wyłącznie biurowym), co systemowo obniża wyniki pracownikom terenowym lub pracującym w trybie zmianowym;
  • efekt „kary za opiekę nad dzieckiem” – pozornie neutralny wskaźnik „dostępność poza standardowymi godzinami” obniża ocenę tym, którzy regularnie kończą pracę punktualnie, co dotyka nadreprezentatywnie rodziców małych dzieci.

W obu przypadkach pracodawca musi być gotowy pokazać, że kryteria oceny są obiektywnie uzasadnione specyfiką pracy, a nie jedynie wygodą organizacji. Bez tego zarzut dyskryminacji pośredniej jest bardzo trudny do odeparcia.

Kwestionowanie prawidłowości wypowiedzeń i obniżek wynagrodzeń

Automatyczny scoring wydajności bywa fundamentem decyzji o wypowiedzeniu umowy, nieprzedłużeniu kontraktu lub pozbawieniu premii. Jeżeli cała argumentacja pracodawcy sprowadza się do: „wyniki Pana/Pani X były poniżej progu w systemie”, sąd pracy zwykle oczekuje dużo więcej.

Najczęstsze problemy w sporach:

  • brak indywidualnego uzasadnienia – pracodawca nie potrafi pokazać konkretnych zaniedbań pracownika, opierając się wyłącznie na ogólnej ocenie systemu;
  • niespójność wskaźników z zakresem obowiązków – model mierzy aktywność w systemie CRM, a pracownik znaczną część pracy wykonuje offline (np. prowadzi szkolenia, negocjacje twarzą w twarz);
  • brak aktualizacji modelu – system nadal „karze” za wskaźniki, które przestały być priorytetem biznesowym, o czym pracownicy zostali poinformowani.

Sąd łatwo dochodzi do wniosku, że przyczyna wypowiedzenia lub pozbawienia premii nie jest „konkretna i rzeczywista”, a to w wielu porządkach prawnych wystarczy do uznania decyzji za wadliwą.

Odpowiedzialność za błędy dostawcy systemu

Często pojawia się pytanie: kto odpowiada, jeśli „zawinił” dostawca oprogramowania? Z perspektywy prawa pracy i ochrony danych odpowiedź jest prosta – wobec pracownika oraz organu nadzorczego odpowiada pracodawca. To on decyduje o wdrożeniu narzędzia i to on jest administratorem danych.

Możliwe roszczenia regresowe wobec dostawcy (np. na podstawie umowy wdrożeniowej) nie zmieniają faktu, że w procesie sądowym to pracodawca będzie musiał tłumaczyć:

  • jak zweryfikował system przed wdrożeniem,
  • czy badał go pod kątem niedyskryminacji,
  • jak nadzorował jego działanie w czasie.

Umowy „w stylu” SaaS z minimalnym opisem odpowiedzialności dostawcy, bez gwarancji zgodności z prawem pracy i RODO, znacząco zwiększają ryzyko procesowe. Z punktu widzenia praktyki lepiej sprawdza się model, w którym wymogi prawne (w tym testy antydyskryminacyjne) są wpisane w umowę jako konkretne zobowiązania dostawcy.

Rozmowa rekrutacyjna kobiety i mężczyzny w nowoczesnym biurze
Źródło: Pexels | Autor: Tima Miroshnichenko

Źródła sporów: gdzie najczęściej „pęka” system

Niejasne kryteria i komunikacja wobec pracowników

Większość konfliktów nie zaczyna się w sądzie, lecz na poziomie poczucia niesprawiedliwości. Typowy schemat: pracownik dowiaduje się o niższym bonusie, prosi o wyjaśnienie i dostaje lakoniczną odpowiedź opartą na ogólnikach. W tle kryją się dwa problemy:

  • kryteria oceny opisane w sposób ogólny – regulamin odwołuje się do „wydajności”, „zaangażowania”, „proaktywności”, ale nie tłumaczy, jak to jest mierzone w systemie;
  • brak szkolenia dla menedżerów – przełożeni nie potrafią ani technicznie, ani merytorycznie wyjaśnić, co zaważyło na wyniku.

Tam, gdzie zasady są spisane precyzyjnie (jakie wskaźniki, jakie progi, jakie wagi) i wcześniej omówione z zespołem, liczba formalnych skarg spada. Nawet jeśli ktoś nie zgadza się z decyzją, łatwiej akceptuje proces, który jest dla niego czytelny.

Niedostosowanie systemu do specyfiki stanowisk

Jedno narzędzie scoringowe stosowane wobec wszystkich pracowników to wygoda dla działu HR, ale prosta droga do zarzutów o nierówne traktowanie. Inaczej mierzy się wydajność kasjera, inaczej programisty, inaczej kierownika projektu. Jeżeli algorytm nie uwzględnia tej różnorodności, wyniki będą z natury wypaczone.

Konflikty najczęściej pojawiają się tam, gdzie:

  • zawody z dużym komponentem kreatywnym lub relacyjnym są oceniane „na sztuki” (liczbą zadań w systemie, liczbą wysłanych maili);
  • w ramach jednego modelu porównuje się stanowiska o zupełnie innym wpływie na wynik finansowy, a jednocześnie używa tych samych progów decyzyjnych dla premii lub awansów.

W procesie sądowym łatwo wtedy wykazać, że system z góry preferuje określone profile pracy i nie zapewnia realnie równych szans pozostałym.

Niewłaściwe reagowanie na odwołania pracowników

Nawet najlepiej zaprojektowany system generuje kontrowersyjne przypadki – to nieuniknione. Kluczowy jest sposób obsługi odwołań. Typowe błędy to:

  • automatyczne potwierdzanie decyzji – przełożony w praktyce „broni systemu” za wszelką cenę, nawet gdy ma wątpliwości co do wyniku;
  • brak drugiej instancji – pracownik nie ma możliwości eskalacji poza najbliższego przełożonego, który sam był beneficjentem wyniku (np. oszczędności w budżecie premiowym);
  • brak dokumentacji rozpatrywania skarg – nie wiadomo, jakie argumenty zgłaszał pracownik i w jaki sposób zostały ocenione.

Gdy spór trafia do sądu, taka praktyka może zostać oceniona jako pozorne zapewnienie prawa do interwencji ludzkiej. Z perspektywy ryzyka warto projektować procedurę odwoławczą tak, aby realnie umożliwiała korektę decyzji algorytmu, a nie tylko formalnie ją „potwierdzała”.

Etyczne pułapki algorytmicznej oceny pracowników

Przekształcenie pracownika w „zbiór metryk”

Automatyzacja oceny sprzyja redukowaniu człowieka do liczb. Tam, gdzie liczy się niemal wszystko – czas reakcji na maila, liczba zgłoszeń obsłużonych w godzinie, aktywność w komunikatorze – pojawia się ryzyko utraty z pola widzenia takich elementów jak współpraca, mentoring, budowanie zaufania z klientami.

Konsekwencje etyczne i organizacyjne są podwójne:

  • pracownicy zaczynają optymalizować swój styl pracy pod wymogi algorytmu, nawet jeśli jest to sprzeczne z interesem klienta czy zespołu (np. szybkie „odbijanie” zgłoszeń zamiast rzetelnego rozwiązania problemu);
  • osoby wnoszące wartości trudne do zliczenia (np. wiedza domenowa, zdolności mediacyjne) czują się marginalizowane, bo system ich po prostu „nie widzi”.

Z perspektywy ryzyka sporów prowadzi to do narastającego poczucia niesprawiedliwości i braku uznania, które często kończy się odejściem kluczowych ekspertów lub formalnymi roszczeniami o nierówne traktowanie.

Niewidzialne uprzedzenia „zaszyte” w danych

Algorytmy są tak dobre (lub stronnicze), jak dane, na których zostały wytrenowane. Jeśli historycznie wyżej oceniano osoby o określonym stylu komunikacji, dyspozycyjności czy temperamencie, model z dużym prawdopodobieństwem odtworzy te preferencje. Problem polega na tym, że takie cechy często są powiązane z płcią, wiekiem, kulturą organizacyjną, a więc mogą prowadzić do miękkiej dyskryminacji.

Różnica między aspektem prawnym a etycznym jest subtelna, ale istotna:

  • prawnie analizuje się, czy model wywołuje znacząco gorsze efekty wobec chronionych grup,
  • etycznie – czy utrwala w organizacji wzorce awansu i premiowania, które zamykają drogę do rozwoju osobom „odmiennym” od dotychczasowego „profilu sukcesu”.

Organizacje, które ograniczają się wyłącznie do testów zgodności z przepisami, często przeoczają ten szerszy wymiar. Konflikty nie pojawiają się od razu, ale narastają w tle jako zarzut „szklanego sufitu” lub faworyzowania określonego typu osobowości.

Naruszenie granic prywatności i „ciągła obecność pod mikroskopem”

Systemy monitorujące aktywność cyfrową, ruch kursora, logowania, czas pracy w aplikacjach – technicznie atrakcyjne – z perspektywy etycznej mogą prowadzić do poczucia „ciągłej inwigilacji”. Nawet jeśli monitoring jest zgodny z prawem, praca w takim środowisku sprzyja wypaleniu i spadkowi lojalności.

Kontrastują tu dwa podejścia:

  • model „maksymalnej widoczności” – mierzymy wszystko, a potem filtrujemy dane na potrzeby oceny;
  • model „ściśle niezbędnego zakresu” – od początku definiujemy wąski zbiór danych potrzebnych do oceny, reszty po prostu nie zbieramy.

Pierwsze podejście może wydawać się biznesowo atrakcyjne, ale to drugie jest łatwiejsze do obrony zarówno przed organami nadzorczymi, jak i z etycznego punktu widzenia. Jest też mniej konfliktogenne – pracownicy wiedzą, co jest oceniane, a co pozostaje poza radarem.

Zacieranie odpowiedzialności za decyzje

Presja efektywności jako źródło konfliktów zbiorowych

Automatyczna ocena wydajności rzadko kończy się wyłącznie na relacji „pracownik – przełożony”. Jeżeli wskaźniki są powiązane z premią zespołową, budżetem działu lub rankingami między oddziałami, szybko pojawia się wymiar zbiorowy. Algorytmicznie wyznaczane cele mogą działać jak „niewidzialny szef”, który nie negocjuje i nie uwzględnia kontekstu.

Na poziomie organizacji widać wtedy dwa przeciwstawne mechanizmy:

  • indywidualizacja odpowiedzialności – każda osoba odpowiada za swoje metryki, nawet gdy wynik zależy od współpracy w zespole;
  • kolektywne skutki finansowe – obniżony wynik kilku osób wpływa na bonus całego działu, wywołując napięcia i wzajemne oskarżenia.

W takich warunkach związki zawodowe lub rady pracowników coraz częściej formułują zarzuty wobec samego modelu oceny, a nie pojedynczych decyzji. Spór przestaje dotyczyć tego, czy Kowalski zasłużył na premię, a zaczyna dotyczyć legitymizacji systemu, który „wymusza” nadgodziny, rezygnację z przerw czy permanentną dostępność online.

Rozjechanie się deklarowanych wartości i praktyki algorytmu

Firmy akcentujące „work–life balance”, „zaufanie” i „elastyczność” szczególnie boleśnie zderzają się z systemami, które w praktyce premiują nieprzerwany czas online i „bycie zawsze pod telefonem”. Na poziomie komunikacji zewnętrznej brzmi to dobrze, na poziomie scoringu – pracownik, który wyłącza powiadomienia po godzinach, traci punkty względem „zawsze dostępnych”.

Ten rozdźwięk bywa gorszy dla zaufania niż otwarta deklaracja twardego, wydajnościowego podejścia. Pracownicy szybko wychwytują, że realna polityka kadrowa wynika z algorytmu, a nie z kodeksu wartości. Z prawnego punktu widzenia taki dysonans utrudnia obronę przed zarzutami o nierówne traktowanie czy mobbing: dokumenty wewnętrzne wskazują jedną hierarchię priorytetów, praktyka algorytmu – inną.

Zacieranie odpowiedzialności za decyzje

Automatyzacja sprzyja przerzucaniu odpowiedzialności: menedżer wskazuje na „system”, dostawca – na parametry ustawione przez klienta, dział HR – na „obiektywne dane”. W efekcie pracownik słyszy, że „tak wyszło z algorytmu”, co z punktu widzenia relacji i zaufania jest sygnałem bezsilności lub braku sprawczości po stronie przełożonego.

Da się wyróżnić dwa przeciwstawne modele odpowiedzialności:

  • model technokratyczny – decyzja jest w praktyce akceptowaniem wyniku algorytmu, a „interwencja ludzka” ma charakter czysto formalny;
  • model menedżerski – wynik algorytmu jest punktem wyjścia, a przełożony ma realny obowiązek i kompetencje do jego korekty, wraz z odpowiedzialnością za uzasadnienie.

W kontekście sporów sądowych drugi model jest znacznie bezpieczniejszy: sąd widzi, że człowiek rzeczywiście analizował sytuację, a algorytm stanowił narzędzie pomocnicze, nie „ostatecznego sędziego”. W pierwszym scenariuszu łatwo o zarzut, że pracodawca zrzekł się odpowiedzialności, ukrywając się za „czarną skrzynką”.

Różne modele wykorzystania AI w ocenie wydajności – porównanie podejść

AI jako kalkulator metryk: wsparcie operacyjne bez decyzyjności

Najbardziej zachowawcze podejście polega na używaniu narzędzi AI wyłącznie do porządkowania i agregowania danych: liczenia wskaźników, identyfikacji anomalii, tworzenia raportów. Algorytm nie przyznaje ocen, nie proponuje decyzji kadrowych, a jedynie dostarcza materiał dla menedżera.

Z punktu widzenia ryzyka prawnego i etycznego ten model ma kilka wyraźnych zalet:

  • niższy poziom automatyzacji decyzji – łatwiej wykazać, że ocena jest wynikiem ludzkiej analizy, a nie quasi-automatycznego procesu;
  • większa elastyczność – przełożony może uwzględnić kontekst, którego system nie „widzi” (np. projekt „ratunkowy”, wsparcie innych zespołów, trudnego klienta);
  • prostsze spełnienie wymogów RODO dotyczących prawa do uzasadnienia decyzji.

Minusy są równie konkretne: większa pracochłonność po stronie menedżerów i większe ryzyko niespójności – różni menedżerowie inaczej interpretują te same raporty. W organizacjach, które już mierzą się z zarzutami o „uznaniowość”, sam „kalkulator metryk” może nie rozwiązać problemu braku standaryzacji.

AI jako „drugi opiniodawca”: rekomendacje, nie wyroki

Kolejny model to zastosowanie AI jako systemu rekomendacyjnego: algorytm proponuje ocenę, zakres premii lub identyfikuje osoby do awansu, ale decyzja formalna należy do człowieka. W praktyce menedżer otrzymuje np. listę pracowników z oznaczeniem „wysoka rekomendacja awansu”, „ryzyko spadku wydajności”, „niejednoznaczny wynik”.

Atutem takiego rozwiązania jest połączenie dwóch perspektyw:

  • standaryzacja – wspólna logika rekomendacji w całej organizacji ogranicza skrajne rozbieżności między działami;
  • zachowanie przestrzeni dla osądu menedżerskiego – przełożony może odrzucić lub zmodyfikować propozycję, o ile ją uzasadni.

Ryzyko pojawia się tam, gdzie rekomendacje stają się de facto wiążące, choć formalnie nimi nie są. Jeżeli odchylenie od wskazań systemu wymaga zgody kilku szczebli zarządzania, przełożeni szybko uczą się, że „bezpieczniej iść z algorytmem”. Wówczas w sądzie trudno przekonująco twierdzić, że decyzja była autonomiczna, a wymogi dotyczące zautomatyzowanych decyzji – nie mają zastosowania.

AI jako główny decydent: wysoki poziom ryzyka, wysoka przewidywalność

Najbardziej zaawansowany wariant to pełna lub prawie pełna automatyzacja kluczowych decyzji kadrowych, oparta na wyniku modelu (np. punktowy scoring przekłada się bezpośrednio na wysokość premii lub udział w programach rozwojowych). Z biznesowego punktu widzenia kusi spójnością i skalowalnością: reguły są jasne, decyzje szybkie, a koszty administracyjne niskie.

Ryzyka rosną tu wykładniczo:

  • reżim zautomatyzowanego podejmowania decyzji z RODO oraz nadchodzącego AI Act włącza się wprost – pracownik może domagać się szczegółowych wyjaśnień oraz interwencji ludzkiej;
  • zmiana w ciężarze dowodu – gdy model jest kluczowym elementem procesu, sąd będzie wymagał rzetelnej dokumentacji jego testów, walidacji i mechanizmów nadzoru;
  • duża podatność na błędy systemowe – pojedyncza wada w projekcie modelu może przełożyć się na tysiące wadliwych decyzji.

Taki model bywa racjonalny jedynie tam, gdzie:

– ocena dotyczy powtarzalnych zadań o bardzo dobrze mierzalnych efektach,

– firma dysponuje zasobami, aby utrzymywać silny zespół odpowiedzialny za audyt i rozwój algorytmów,

– istnieją równoległe ścieżki rozwoju i wynagradzania niezależne od samego wyniku scoringu.

Systemy oceny „twardej” vs „miękkiej” – różne ryzyka, różne spory

AI może wspierać zarówno pomiar „twardych” wskaźników (sprzedaż, czas reakcji, liczba zrealizowanych zadań), jak i analiza „miękkich” aspektów, takich jak ton komunikacji, zaangażowanie czy przywództwo. Każdy z tych obszarów generuje inny rodzaj napięć.

W systemach opartych na twardych danych konflikty koncentrują się wokół:

  • kompletności danych – część pracy nie jest rejestrowana w systemie (np. wsparcie ad hoc, praca koncepcyjna);
  • przypisania wyników – sukces projektu przypada tylko osobie „oznaczonej” jako właściciel zadania, mimo wkładu innych.

W systemach oceniających kompetencje miękkie pojawiają się inne zarzuty:

  • subtelna dyskryminacja stylu komunikacji – preferowanie określonych sposobów wyrażania się, które korelują z kulturą, płcią czy wiekiem;
  • nadmierna ingerencja w ekspresję osobistą – pracownicy czują, że algorytm „formatuje” ich język i zachowania, aby odpowiadały wzorcowi modelu.

Przykładowo, analiza nastroju w korespondencji służbowej może prowadzić do obniżenia oceny osób piszących zwięźle i bez ozdobników, podczas gdy styl ten wynika z uwarunkowań kulturowych lub specyfiki pracy technicznej. Trudno wtedy obronić tezę o „neutralnym” charakterze systemu.

Modele scentralizowane vs lokalnie dostosowane

Organizacje międzynarodowe często wahają się między jednym globalnym systemem oceny a zestawem lokalnie dostosowanych rozwiązań. Każdy wybór ma inne konsekwencje dla ryzyka sporów.

Scentralizowany model globalny zapewnia:

  • jednolite standardy i możliwość porównań między krajami;
  • łatwiejsze zarządzanie dostawcą i aktualizacjami;
  • silniejszą pozycję przy negocjacjach cen i funkcjonalności.

Jednocześnie uwypukla problemy:

  • zderzenie z lokalnym prawem pracy (np. innymi zasadami wypowiadania umów, odmiennymi standardami ochrony danych);
  • ignorowanie kulturowych różnic w stylu pracy i komunikacji;
  • większe ryzyko, że błąd w projekcie globalnego modelu wygeneruje roszczenia w wielu jurysdykcjach jednocześnie.

Model lokalnie dostosowany redukuje część tych napięć, lecz wprowadza inne:

  • brak pełnej porównywalności wyników między krajami lub jednostkami biznesowymi;
  • wyższe koszty wdrożeń, walidacji i audytów modeli „szytych na miarę”;
  • argument organizacji, że „takie są lokalne zasady”, przeciwstawiany oczekiwaniom globalnej spójności ze strony pracowników.

W praktyce coraz częściej spotyka się hybrydy: wspólny trzon wskaźników i algorytmu plus lokalne moduły, dostosowane do prawa i specyfiki stanowisk. Z punktu widzenia sporów jest to korzystne o tyle, że łatwiej wykazać, iż firma rzeczywiście brała pod uwagę lokalny kontekst, a nie narzuciła jednolite rozwiązanie „z centrali”.

Ocena okresowa vs ocena ciągła – dwa rytmy konfliktów

AI sprzyja przechodzeniu od klasycznych, rocznych ocen okresowych do modelu ciągłego feedbacku, opartego na danych zbieranych w czasie rzeczywistym. Oba podejścia inaczej rozkładają ryzyko sporów:

  • ocena okresowa skupia napięcia w jednym momencie – konflikty wybuchają po ogłoszeniu wyników i decyzji premiowych;
  • ocena ciągła rozsmarowuje je w czasie – częściej dochodzi do drobnych sporów o interpretację wskaźników, korekty i „prostowanie” historii wydajności.

Zaletą modelu ciągłego jest większa możliwość wczesnej interwencji: jeśli błędnie skonfigurowany wskaźnik obniża oceny, można go skorygować przed kluczową decyzją. Minusem bywa poczucie, że pracownik jest „na bieżąco oceniany” za każdy ruch, bez przestrzeni na eksperyment i uczenie się na błędach.

Z perspektywy dowodowej ocena ciągła generuje ogromne zbiory danych, które w sporze mogą zarówno pomóc (dokładna historia zmian), jak i zaszkodzić (wykazanie niespójności w korektach, wybiórczego reagowania na podobne przypadki). Firmy, które decydują się na ten model, potrzebują jasnych zasad wersjonowania i archiwizacji zmian w konfiguracji systemu.

Rozproszone kompetencje nadzorcze vs wyspecjalizowany „AI oversight”

Na końcu pozostaje pytanie, kto w organizacji faktycznie „trzyma” temat algorytmicznej oceny pracowników. Dwa skrajne rozwiązania prowadzą do odmiennych skutków.

W modelu rozproszonym odpowiedzialność dzielą między sobą HR, dział prawny, IT, bezpieczeństwo informacji i biznes. Każda jednostka ma swój fragment układanki: jedni pilnują zgodności z RODO, inni komfortu użytkowania, jeszcze inni – kosztów. Taki podział sprzyja elastyczności, ale utrudnia wskazanie miejsca, gdzie zapadają strategiczne decyzje o parametrach modelu i kryteriach oceny.

W modelu wyspecjalizowanego nadzoru powstaje dedykowany zespół lub rola (np. „AI governance officer”) odpowiedzialny za:

  • ocenę wpływu systemu na prawa pracowników;
  • koordynację audytów algorytmów;
  • rekomendacje zmian w politykach HR i regulaminach.

Z punktu widzenia sporów sądowych drugi model ma jedną istotną przewagę: pozwala wykazać uporządkowany, świadomy proces zarządzania ryzykiem, zamiast mozaiki nieformalnych decyzji. Rozproszenie kompetencji często kończy się sytuacją, w której nikt nie potrafi wyjaśnić, kto i na jakiej podstawie podjął decyzję o zmianie wagi danego wskaźnika czy rozszerzeniu zakresu monitoringu.

1 KOMENTARZ

  1. Czytając ten artykuł, widzę jak zautomatyzowane systemy oceny wydajności pracowników mogą być podwójnym ostrzem. Z jednej strony mogą poprawić obiektywność i regularność ocen, co jest zdecydowanie pozytywne. Z drugiej strony jednak rodzi się ryzyko sporów sądowych ze względu na potencjalne błędy systemów czy brak uwzględnienia kontekstu pracy pracownika. Wydaje się, że kluczowe jest znalezienie złotego środka, który pozwoli wykorzystać zalety automatyzacji, jednocześnie minimalizując ryzyko konfliktów na linii pracownik- pracodawca. Ciekawe zagadnienie, które z pewnością warto zgłębić i przeanalizować z różnych perspektyw.

Aby opublikować komentarz pod wpisem, wymagane jest zalogowanie na konto.