Prawne ryzyka używania AI przez pracowników. Odpowiedzialność pracodawcy wobec osób trzecich. Prawo pracy, prawo autorskie, ochrona danych poufnych i osobowych

REKLAMA
REKLAMA
Sztuczna inteligencja (AI) stanowi dużą pomoc w pracy, ułatwiając ją i przyspieszając w znacznym stopniu. Zdają sobie z tego sprawę zarówno pracodawcy, jak i pracownicy. Tak jednak ze strony pracodawców lub potencjalnych pracodawców wobec pracowników lub kandydatów, jak po ze strony pracowników, nieodpowiedzialne korzystania z AI może rodzić określone ryzyka prawne, które możemy ocenić przez pryzmat prawa pracy. Świadomość tych ryzyk jest ważna pod kątem znalezienia rozwiązań przed nimi zabezpieczających w sytuacji w której prawo powszechne takiego zabezpieczenia nie przewiduje.
- Główne obszary wykorzystywania AI w sprawach HR i około pracowniczych
- Ryzyka prawne związane z rekrutacją i HR
- Prawo autorskie a AI w działaniach pracowników a odpowiedzialność na gruncie prawa pracy i odpowiedzialność pracodawcy wobec osób trzecich
- Naruszenie tajemnicy przedsiębiorstwa lub zawodowej, poufności danych oraz ochrony danych osobowych
- Halucynacje AI
- Konkluzje
Główne obszary wykorzystywania AI w sprawach HR i około pracowniczych
Wskazane wyżej obszary siłą rzeczy podzielić trzeba na kwestie zatrudniania i rekrutacji, relacji pracodawca-pracownik w trakcie zatrudnienia, jak i odpowiedzialności pracownika wobec pracodawcy i tego ostatniego wobec podmiotów trzecich za działania pracownika.
W zakresie rekrutacji związane jest to z przyspieszeniem procesów rekrutacyjnych, ich usprawnieniem poprzez wykorzystanie AI do wstępnej selekcji, ograniczeniem subiektywnego spojrzenia i w związku z tym obniżenie kosztów, analizą potrzeb kadrowych i planowaniem zatrudnienia.
W codziennej zaś pracy główne korzyści związane są z: automatyzacją wielu działań, w tym powtarzalnych, szybszymi i sprawniejszymi analizami dużej ilości danych, z odciążeniem pracowników od monotonnej pracy, Weryfikacja wydajności pracowników i wsparcie rozwoju pracowników
Część z tych korzyści jednocześnie generuje ryzyka prawne.
REKLAMA
Ryzyka prawne związane z rekrutacją i HR
Wprawdzie przepisy unijne o równości wynagrodzeń, które mocno wpłyną na procesy rekrutacyjne, mają zostać implementowane dopiero do 7 czerwca 2026 r. (i raczej nie ma co liczyć na to, że stanie się to wcześniej, raczej jak zwykle będzie opóźnienie), to jednak także z obowiązujących przepisów wyprowadzić możemy zakaz dyskryminacji w zatrudnieniu. W tym zakresie korzystając z AI możemy niestety narazić się na powielenie błędów wynikających z materiałów źródłowych, którymi nakarmimy AI. Możemy również błędnie określić parametry, jakie sztuczna inteligencja ma przyjąć przy selekcji aplikacji kandydatów. Może okazać się zbyt sztucznie obiektywna i brak ludzkiego, subiektywnego spojrzenia może zmienić się z zalety w wadę, powodującą zarzut ze srony kandydata, który poczuje się dyskryminowany.
Także analizując wydajność pracowników, ich postępy rozwojowe możemy tu się narazić na błędy i ryzyko dyskryminacji pracowników przy np. awansie, proponowaniu nowych warunków zatrudnienia, jeżeli czynnik ludzki nie sprawdzi wyników pracy AI.
Prawo autorskie a AI w działaniach pracowników a odpowiedzialność na gruncie prawa pracy i odpowiedzialność pracodawcy wobec osób trzecich
Developerzy AI nie kryją się z tym, że karmią swoje generatywne sztuczne inteligencje także treściami objętymi prawem autorskim. Uzasadniają to nie tylko koniecznością zapewnienia prawidłowego i pełnego działania swoich produktów, ale również wyrażanym przekonaniem, iż treści generowane przez nie podlegają takiemu „przetworzeniu”, iż powstaje w istocie nowy utwór.
Nie da się ukryć, że dyskusja w tym zakresie toczy się głównie w odniesieniu do graficznego contentu, który stanowi wyłącznie jeden z wielu przykładów utworów, jakie są wykorzystywane. W pracy biurowej prawdopodobnie utwory pisane mogą być częściej wykorzystane i tu już może dochodzić do bezpośredniego naruszenia praw autorskich, jeżeli wykorzystane treści nie będą oznaczone jako cytat z podaniem autora i źródła. Co więcej takie naruszenie może być bardzo łatwo wykryte, choćby poprzez wyszukiwarkę internetową o specjalnym oprogramowaniu nie wspominając. Takie oprogramowanie jest wykorzystywane od lat do kontroli choćby prac naukowych.
Korzystając z AI pracownik może naruszyć prawa autorskie w ten sposób nawet nieświadomie. Pracodawca, jeżeli tego tekstu nie sprawdzi pod tym kątem i wykorzysta w swojej działalności gospodarczej będzie tym podmiotem, do którego z roszczeniem zwróci się właściciel tych praw autorskich. Co pozostanie pracodawcy jeżeli roszczenie okaże się słuszne? Jedynie dochodzić od pracownika naprawienia szkody jaką poniesie w wyniku roszczenia osoby trzeciej. To jednak jest ograniczone do wysokości trzymiesięcznego wynagrodzenia, jeżeli szkoda została wyrządzona nieumyślnie. Pełnego naprawienia szkody przez pracownika możemy żądać wyłącznie jeżeli wykażemy, że szkoda została wyrządzona umyślnie, a to może w praktyce być dość trudne.
Naruszenie tajemnicy przedsiębiorstwa lub zawodowej, poufności danych oraz ochrony danych osobowych
Poufność danych i RODO to kolejna dziedzina, która przy korzystaniu z AI może zrodzić ryzyka, a co za tym idzie konsekwencje prawne, choć w tym wypadku mechanizm, w którym pracownicy mogą doprowadzić do takiej sytuacji jest odmienny. W tym bowiem wypadku problem wynika z mechanizmu uczenia się każdej AI.
Ten bowiem w uproszczeniu polega na karmieniu się danymi i ich przetwarzaniu. Informacje te przetwarzane są przez daną sztuczną inteligencje i następnie wykorzystywane do generowania przez nią treści. I tym samym, jeżeli nakarmimy AI, z której korzystamy danymi poufnymi, to mogą one następnie „wypłynąć” do przypadkowych użytkowników tej samej AI, względnie takiej która korzystała z pozyskanych przez nią danych. Co więcej AI może z naszych danych, np. projektów umów, planów inwestycyjnych itp. wyciągnąć wnioski, które mogą być wykorzystane przez naszą konkurencję.
Ryzyko wynikające z wprowadzenia danych osobowych do AI, których jesteśmy administratorem, jest w mojej ocenie oczywiste.
Do pewnego stopnia, przynajmniej jak zapewniają developerzy AI, płatne wersje tego oprogramowania nie wysyłają naszych danych do wersji nieodpłatnych tudzież nie są przetwarzane na potrzeby innych klientów. Takie rozwiązanie techniczne, choć ogranicza w istocie możliwości naszej AI (jest „mądra” danymi, którymi została nakarmiona), stanowi tu pewną ochronę.
W pozostałych jednak wypadkach grążą nam zarówno roszczenia ze strony podmiotów, których tajemnic nie uchroniliśmy, do tego odpowiedzialność dyscyplinarna za naruszenie tajemnicy zawodowej, jeżeli jesteśmy zobowiązani do jej chronienia i wreszcie kary nakładane przez Prezesa UODO za naruszenie ochrony danych osobowych.
Uwagi co do odpowiedzialności pracowników są identyczne jak w poprzednim punkcie.
Halucynacje AI
Jest to zjawisko, które pojawiło się po pewnym czasie używania AI, w momencie kiedy większość nich została już nakarmiona dostępnymi danymi i proces ten znacznie spowolnił z uwagi szybkość tworzenia nowych treści przez ludzi. Jednocześnie sztuczna inteligencja „chce” odpowiedzieć na postawione pytania i na skutek nieprzewidzianych przy jej pisaniu błędów algorytmów, rozmów z innymi AI, zaczyna generować fałszywe lub nierealistyczne dane lub treści np. wyniki statyczne lub nawet orzeczenia sądów. Skorzystanie z takich danych bez ich weryfikacji wpłynąć z kolei może na jakość świadczonych przez nas usług, np. treść porady prawnej lub podatkowej która oparta będzie tym samym na błędnych przesłankach lub założeniach.
Zła jakość naszej usługi to oczywiście odpowiedzialność za jej nienależyte wykonania przez przedsiębiorcę/pracodawcę a w przypadku zawodów regulowanych nawet odpowiedzialność Uwagi co do odpowiedzialności pracowników są identyczne jak w punkcie poświęconym prawu autorskiemu.
Konkluzje
Na wstępie wspomniałem, iż znajomość ryzyk prowadzi do opracowania mechanizmów zabezpieczających przed nimi. Wspomniałem również, iż w obowiązującym prawie brak jest takich mechanizmów. Przeciwnie, są oczywiste i słuszne mechanizmy ryzyko zwiększające – obowiązujące prawo niezależnie od powstania AI dalej chroni prawa autorskie, dane osobowe czy też prawa pracownicze (o czym pisałem w poprzednim artykule poświęconym AI). Mechanizmy zabezpieczające wymagają zatem samodzielnego opracowania ale w ramach obowiązującego prawa, czemu poświęcony będzie kolejny materiał.
r.pr.,dor.pod. Mirosław Siwiński, partner w Nexia Advicero
REKLAMA
© Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A.
REKLAMA