12 listopada, 2024

Sztuczna inteligencja w HR a AI Akt

Sztuczna inteligencja jest coraz częściej i szerzej stosowana w codziennej pracy HR. Narzędzia AI pozwalają pracodawcom na automatyzację oraz optymalizację wielu procesów, a w tym np. procesu rekrutacyjnego, w którym narzędzia oparte na algorytmach mogą analizować setki CV identyfikując najlepiej dopasowanych kandydatów. Wdrażanie i korzystanie z narzędzi AI powinno odbywać się jednak w bardzo przemyślany i ostrożny sposób, tak aby procesy na nich oparte były wolne od potencjalnej dyskryminacji i „algorytmicznych” uprzedzeń, jak również nie ingerowały nadmiernie w prywatność pracowników.

W odpowiedzi na rosnące znaczenie oraz coraz częstsze wykorzystanie sztucznej inteligencji w różnych obszarach gospodarki, europejski prawodawca postanowił kompleksowo uregulować kwestie związane z AI. Celem tych regulacji jest zapewnienie, aby rozwój technologii przebiegał w sposób jak najbardziej etyczny i odpowiedzialny. W Rozporządzeniu z dnia 13 czerwca 2024 r., powszechnie określanym jako AI Akt, określono zasady dotyczące stosowania mechanizmów opartych na sztucznej inteligencji.

Kiedy AI Akt wejdzie w życie?

Akt ma formę rozporządzenia, co oznacza, że jego przepisy – podobnie jak np. przepisy RODO obowiązują bezpośrednio w całej Unii. Choć Akt AI został już ogłoszony, jego przepisy będą wprowadzane stopniowo, w ciągu 24 miesięcy od daty publikacji. W przypadku niektórych regulacji terminy te wynoszą odpowiednio 6, 12 i 36 miesięcy.

Co istotne, Ministerstwo Cyfryzacji zadeklarowało, że kwestie związane ze sztuczną inteligencją traktuje priorytetowo. W związku z tym planuje rozpocząć prace nad projektem polskich przepisów, które wprowadzą zasady zawarte w AI Akcie do polskiego porządku prawnego. Na chwilę obecną szczegóły projektu nie są jeszcze znane, jednak będziemy na bieżąco monitorować najnowsze doniesienia w tej sprawie.

Co reguluje AI Akt?

Już teraz jednak zwracamy uwagę, że AI Akt reguluje wszystkie sektory gospodarki, w tym także obszar prawa pracy i HR, gdzie sztuczna inteligencja zyskuje coraz bardziej istotne znaczenie. AI Act wprowadza podejście oparte na ryzyku, które różnicuje poziom regulacji w zależności od potencjalnego wpływu systemów SI na prawa jednostki. Rozporządzenie klasyfikuje systemy sztucznej inteligencji w czterech głównych kategoriach: systemy zakazane, wysokiego ryzyka, ograniczone ryzyka oraz minimalnego ryzyka.

Z punktu widzenia prawa pracy i HR najistotniejszą kategorią są systemy wysokiego ryzyka, do których zaliczają się:

  1. systemy AI przeznaczone do wykorzystywania do celów rekrutacji lub wyboru osób fizycznych, w szczególności do celów umieszczania ukierunkowanych ogłoszeń o pracę, analizowania i filtrowania podań o pracę oraz do oceny kandydatów;
  2. systemy AI przeznaczone do wykorzystywania do celów podejmowania decyzji wpływających na warunki stosunków pracy, decyzji o awansie lub rozwiązaniu umownego stosunku pracy, przydzielania zadań w oparciu o indywidualne zachowanie lub cechy osobowości lub charakter lub do monitorowania lub oceny wydajności i zachowania osób pozostających w takich stosunkach.

W ocenie prawodawcy europejskiego, tego rodzaju systemy klasyfikowane są jako systemy „wysokiego ryzyka”, ponieważ mogą w znacznym stopniu wpływać na przyszłe perspektywy zawodowe, źródła utrzymania pracowników i prawa pracownicze. W całym procesie rekrutacji oraz w ramach oceniania, awansowania lub utrzymywania na stanowisku pracowników, systemy takie mogą utrwalać historyczne wzorce dyskryminacji. W szczególności utrwalanie takich negatywnych wzorców może mieć miejsce wobec kobiet, niektórych grup wiekowych, osób z niepełnosprawnościami lub osób o określonym pochodzeniu rasowym lub etnicznym lub o określonej orientacji seksualnej. Podkreśla się przy tym, że systemy AI wykorzystywane do monitorowania wydajności i zachowania pracowników mogą również podważać ich prawa podstawowe w zakresie ochrony danych i prywatności.

Jakie obowiązki wprowadza AI Akt?

Podmioty korzystające z systemów sztucznej inteligencji wysokiego ryzyka – a zatem pracodawcy wykorzystujący AI do opisanych powyżej działań, powinny wdrożyć szereg obowiązków wskazanych w rozporządzeniu, które obejmują przede wszystkim podjęcie odpowiednich środków technicznych i organizacyjnych w celu zapewnienia, że takie systemy są wykorzystywane zgodnie z dołączonymi do nich instrukcjami obsługi. AI Akt przewiduje również obowiązek pracodawców do poinformowania przedstawicieli pracowników i pracowników, których to dotyczy, że będzie w stosunku do nich wykorzystywany system AI wysokiego ryzyka.

Jak wspomnieliśmy, opisane powyżej obowiązki nie weszły jeszcze w życie. Nie wiemy też, jaki kształt przybiorą polskie przepisy implementujące rozporządzenie. Co istotne, przepisy rozporządzenia nie uniemożliwiają Unii ani państwom członkowskim utrzymywania lub wprowadzania przepisów ustawowych, wykonawczych lub administracyjnych, które są korzystniejsze dla pracowników pod względem ochrony ich praw w odniesieniu do korzystania z systemów AI przez pracodawców, ani zachęcania do stosowania korzystniejszych dla pracowników układów zbiorowych lub zezwalania na ich stosowanie.

W konsekwencji zatem, nie jest wykluczone, że polski ustawodawca – w granicach wyznaczonych przez rozporządzenie – wprowadzi szczególne regulacje w stosunkach pracy. Taka sytuacja miała właśnie miejsce przy wprowadzaniu przepisów RODO. Nie można zatem wykluczyć, że polski ustawodawca wprowadzi szczególne regulacje dotyczące wykorzystania sztucznej inteligencji w relacjach pracowniczych.

Już teraz jednak rekomendujemy, aby w przypadku rozważania wprowadzenia rozwiązań opartych na sztucznej inteligencji w obszarze zatrudnienia, dokonać oceny i analizy systemu, z uwzględnieniem treści przepisów rozporządzenia AI, które wyznaczają minimalne standardy ochrony pracowników.