AI Act to rdzeń prawny dla uregulowania zasad handlu i stosowania technologii ze sztuczną inteligencją w Unii Europejskiej. Ten kluczowy dokument, który można sklasyfikować w segmencie prawa materialnego należy czytać przede wszystkim jako listę „zakazów” dla pełnej wolności gospodarczej w szczytnym celu: mianowicie chodzi o utrzymanie właściwej równowagi pomiędzy ochroną rynku a konkurencyjnością Europy wobec innych rynków światowych.
- Zorientowana na człowieka i godna zaufania sztuczna inteligencja (AI) – jak to rozumieć
- Jakie praktyki związane ze sztuczną inteligencją są zakazane
- Obowiązek wdrożenia systematycznego zarządzania ryzykiem dla systemów AI wysokiego ryzyka
- RODO a AI
- Wytyczne co do etyki godnej zaufania sztucznej inteligencji
- Wymogi tworzenia sztucznej inteligencji godnej zaufania
Zorientowana na człowieka i godna zaufania sztuczna inteligencja (AI) – jak to rozumieć
Pojęcie prawne „zorientowanej na człowieka i godnej zaufania sztucznej inteligencji” nie znajduje legalnej definicji w Rozporządzeniu Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008 (AI ACT). Jednakże samo sformułowanie pojawia się wielokrotnie w preambule rozporządzenia oraz w artykule 1, dzięki czemu możliwe jest przeanalizowanie znaczenia tego pojęcia prawnego.
Zwrot „zorientowanej na człowieka” zwraca uwagę na fakt, iż w centrum rozwoju sztucznej inteligencji postawiony jest człowiek. AI oddziałuje na ludzkie życie w wielu sektorach, takich jak opieka zdrowotna, edukacja, transport, finanse, przemysł, rolnictwo oraz rozrywka, przekształcając sposób, w jaki pracujemy, uczymy się i komunikujemy. W wielu tych aspektach człowiek bywa narażony na niebezpieczeństwa związane z związane z utratą prywatności, dezinformacją, uprzedzeniami algorytmicznymi, uzależnieniem od technologii oraz ryzykiem utraty miejsc pracy na rzecz automatyzacji. W związku z tym unijni legislatorzy zdecydowali, że sztuczna inteligencja powinna być ukierunkowana na człowieka[1], tak aby przezwyciężyć problemy wynikające z wątpliwości wobec AI.
W wyniku bardzo szybkiego rozwoju technologicznego wiele osób pozostaje nieufnych wobec sztucznej inteligencji. Między innymi znaczna ilość ludzi nie rozumie, w jaki sposób ta technologia działa – jest dla nich skomplikowana i mało przejrzysta. Ludzie obawiają się również, że utracą kontrolę nad działaniem sztucznej inteligencji, a także mogą bać się inwigilacji czy nadużycia w związku z działaniem na podstawie ogromnych zbiorów danych (w tym danych osobowych). Z tego powodu jednym z głównych celów przyjętych przez Parlament Europejski jest zbudowanie „godnej zaufania sztucznej inteligencji”. Europejska strategia w zakresie AI wyraźnie wskazuje, że zaufanie jest warunkiem wstępnym do zapewnienia podejścia do AI ukierunkowanego na człowieka[2]. Podejście do AI oparte jest na renomie bezpiecznych i wysokiej jakości produktów, tak aby wzmocnić zaufanie obywateli do postępu cyfrowego.
Pojęcie prawne „zorientowanej na człowieka i godnej zaufania sztucznej inteligencji” stanowi zatem cel, jaki Unia Europejska zamierza osiągnąć, aby zapewnić wysoki poziom ochrony, zdrowia, bezpieczeństwa, praw podstawowych w Karcie praw podstawowych Unii Europejskiej. Wśród tych praw należy wymienić demokrację, praworządność i ochronę środowiska, przed szkodliwymi skutkami systemów AI w Unii.[3] W związku z tym postanowieniem na mocy AI ACT zostały dokładnie uregulowane materie, w których sztuczna inteligencja oddziałuje na ludzi. Rozporządzenie ustanawia przepisy dotyczące wprowadzania do obrotu, oddawania do użytku oraz wykorzystanie systemów AI w Unii, a także określa zakazy dotyczące niektórych praktyk. W celu zapewnienia jak najwyższej ochrony dla kategorii osób szczególnie wrażliwych wprowadza między innymi wymogi dotyczące systemów AI wysokiego ryzyka oraz obowiązki spoczywające na operatorach takich systemów.
Ukierunkowanie rozwoju technologii sztucznej inteligencji na człowieka oznacza, że powinna ona służyć jako narzędzie dla ludzi, którego celem jest zwiększenie dobrostanu człowieka. W związku z tym AI Act wprowadza jasno określone podejście oparte na analizie ryzyka, jakie systemy sztucznej inteligencji mogą powodować. Wprowadzone zatem zostały zakazy stosowania niektórych niedopuszczalnych praktyk w zakresie AI, ustanowienie wymogów dotyczących systemów AI wysokiego ryzyka i obowiązków spoczywających na odpowiednich operatorach oraz ustanowienie obowiązków w zakresie przejrzystości w odniesieniu do niektórych systemów AI. Rozporządzenie wyróżnia cztery klasyfikacje systemów AI na podstawie oceny ryzyka funkcjonowania. Pierwszą kategorią są systemy AI, których wykorzystanie jest zakazane z uwagi na nieakceptowalny poziom ingerencji w chronione wartości (Art. 5). Kolejną kategorią stanowią systemy AI wysokiego ryzyka, które są dopuszczalne pod rygorem spełnienia licznych warunków określonych w art. 8 Rozporządzenia. Trzecią kategorię pełnią systemy AI generujące ograniczone ryzyko, zaś ostatnią - systemy, które albo nie generują żadnego ryzyka, albo utrzymuje się ono na minimalnym poziomie.[4] Nie jest to jednak klasyfikacja zupełna, ponieważ Akt wprowadza również „modele AI ogólnego przeznaczenia”, które stanowią modele zdolne do wykonywania różnych zadań, czy to w postaci samodzielnie funkcjonujących systemów ogólnego przeznaczenia, czy też poprzez ich zintegrowanie z innymi systemami lub aplikacjami. Takie rozróżnienie systemów zostało wprowadzone w celu zapewnienia bezpieczeństwa użytkowników oraz poszanowanie ich praw.
Jakie praktyki związane ze sztuczną inteligencją są zakazane
Istotnym do wyjaśnienia pojęcia „zorientowanej na człowieka sztucznej inteligencji” jest art. 5 AI Act. Na jego mocy zakazane jest stosowanie określonych praktyk związanych ze sztuczną inteligencją, które mogą zagrażać prawom i wolnościom osób fizycznych. Zakazuje się m.in.:
- stosowania technik podprogowych będących poza świadomością danej osoby lub celowych technik manipulacyjnych lub wprowadzających w błąd;
- wykorzystywania słabości osoby fizycznej lub określonej grupy osób ze względu na ich wiek, niepełnosprawność lub szczególną sytuację społeczną lub ekonomiczną;
- scoringu społecznego, który jest krzywdzący lub który prowadzi do niekorzystnego traktowania;
- przeprowadzania ocen ryzyka w odniesieniu do osób fizycznych, by ocenić lub przewidzieć ryzyko popełnienia przestępstwa przez osobę fizyczną, wyłącznie na podstawie profilowania osoby fizycznej lub oceny jej cech osobowości i cech charakterystycznych;
- tworzenia lub rozbudowywania bazy danych służące rozpoznawaniu twarzy poprzez nieukierunkowane pozyskiwanie (ang. untargeted scraping) wizerunków twarzy z Internetu lub nagrań z telewizji przemysłowej;
- wyciągania wniosków na temat emocji osoby fizycznej w miejscu pracy lub instytucjach edukacyjnych;
- kategoryzacja biometrycznej, które indywidualnie kategoryzują osoby fizyczne w oparciu o ich dane biometryczne;
- wykorzystywania systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw.
Powyższe zakazy pomagają skonkretyzować ideę „zorientowanej na człowieka AI” poprzez ustanowienie zakazów chroniących prawa podstawowe. Dzięki temu art. 5 AI Act pełni rolę etycznego filaru europejskiego podejścia do sztucznej inteligencji.
Obowiązek wdrożenia systematycznego zarządzania ryzykiem dla systemów AI wysokiego ryzyka
Co ciekawe, art. 9 Aktu nakłada obowiązek wdrożenia systematycznego zarządzania ryzykiem dla systemów AI zaklasyfikowanych jako wysokiego ryzyka. Stanowi również, że przez system zarządzania ryzykiem rozumie się ciągły, iteracyjny proces, planowany i realizowany przez cały cykl życia systemu AI wysokiego ryzyka, wymagający regularnego systematycznego przeglądu i aktualizacji. Uwzględnienie pełnego cyklu życia, także po wdrożeniu, odpowiada zasadzie ciągłej troski o dobro człowieka, a nie jednorazowej zgodności z przepisami. Ustanawia on konkretne wymogi, które mają chronić jednostkę, promować etyczne projektowanie AI i zapewnić jej odpowiedzialne użycie. Dzięki temu prawo nie tylko deklaruje ochronę człowieka, ale wprowadza ją w życie poprzez obowiązki techniczne i organizacyjne.
RODO a AI
Warto również zwrócić uwagę na art. 22 Ogólnego Rozporządzenia o Ochronie Danych (RODO).[5] Traktuje on o zautomatyzowanym podejmowaniu decyzji w indywidualnych przypadkach. Osoba, której dane dotyczą, ma prawo do tego, by nie podlegać decyzji, która opiera się wyłącznie na zautomatyzowanym przetwarzaniu, w tym profilowaniu, i wywołuje wobec tej osoby skutki prawne lub w podobny sposób istotnie na nią wpływa. „Profilowanie" oznacza dowolną formę zautomatyzowanego przetwarzania danych osobowych, które polega na wykorzystaniu danych osobowych do oceny niektórych czynników osobowych osoby fizycznej, w szczególności do analizy lub prognozy aspektów dotyczących efektów pracy tej osoby fizycznej, jej sytuacji ekonomicznej, zdrowia, osobistych preferencji, zainteresowań, wiarygodności, zachowania, lokalizacji lub przemieszczania się. Na podstawie tego przepisu widać ochronę osób przed sztuczną inteligencją, tak aby zagwarantować maksymalne ukierunkowanie na człowieka.
Wytyczne co do etyki godnej zaufania sztucznej inteligencji
W motywie 27 AI Act mowa jest o Wytycznych w zakresie etyki dotyczących godnej zaufania sztucznej inteligencji z 2019 r.[6] Zostały one opracowane przez niezależną grupę ekspertów wysokiego szczebla ds. AI powołaną przez Komisję, aby dążyć do maksymalizacji korzyści, jakie przynosi stosowanie systemów AI, przy jednoczesnym zapobieganiu związanym z nimi zagrożeniom oraz ograniczaniu tych zagrożeń do minimum. W tych wytycznych eksperci zwracają uwagę na fakt, iż zaufanie odnosi się nie tylko do samej technologii, ale również do właściwości systemów społeczno-technicznych. Zgodnie z opinią ekspertów tworzenie godnej zaufania sztucznej inteligencji wymaga nie tylko niezawodnych systemów, ale też podejścia całościowego, które uwzględnia wiarygodność wszystkich osób i procesów związanych z jej działaniem na każdym etapie. W związku z tym godna zaufania AI powinna posiadać trzy cechy – zgodna z prawem, etyczna, solidna. Każda z tych trzech cech jest konieczna, ale sama w sobie niewystarczająca do osiągnięcia godnej zaufania sztucznej inteligencji.
Jednakże warto pamiętać, że różne sytuacje mogą stwarzać różne wyzwania. Stosowanie sztucznej inteligencji w różnych sektorach nie wiąże się z takimi samymi wyzwaniami. Systemy AI są w dużej mierze zależne od kontekstu, dlatego powstaje wymóg dostosowania procesu wdrażania wytycznych do potrzeb związanych z konkretnym zastosowaniem AI.
Co oznaczają cechy godnej zaufania sztucznej inteligencji? Otóż, sztuczna inteligencja zgodna z prawem nie może funkcjonować w świecie bezprawia. W odniesieniu do opracowywania, wdrażania i wykorzystywania systemów AI istnieje wiele prawnie wiążących prawnie przepisów. Do głównych źródeł prawa należą między innymi:
- prawo pierwotne UE (traktaty i Karta praw podstawowych UE);
- prawo wtórne UE (np. ogólne rozporządzenie o ochronie danych, dyrektywy antydyskryminacyjne, rozporządzenie w sprawie swobodnego przepływu danych nieosobowych);
- konwencje ONZ dotyczące praw człowieka;
- konwencje Rady Europy;
- przepisy ustawowe państw członkowskich UE.
Wytyczne w zakresie etyki nie mogą być jednak odczytywane ani interpretowane jako doradztwo prawne czy sposób, w jaki można osiągnąć zgodność z prawem. Należy jednak pamiętać, iż w obowiązku operatorów dostarczających systemy AI leży zapewnienie zgodności z prawem tej technologii, aby była ona godna zaufania. Odnośnie etyki przepisy ustawowe nie zawsze nadążają za postępem technologicznym. Oznacza to, że czasami mogą nie być zgodne z normami etycznymi lub mogą po prostu nie być odpowiednim instrumentem na potrzeby rozwiązania określonych problemów. Mimo to, aby systemy sztucznej inteligencji były godne zaufania powinny być również etyczne poprzez zapewnienie zgodności z normami etycznymi. Najważniejszą cechą godnej zaufania sztucznej inteligencji jest jej solidność. Jednostki i społeczeństwo muszą mieć również pewność, że systemy AI nie wywołają żadnych niezamierzonych szkód. Zapewnienie solidności systemów AI jest konieczne ze względów zarówno technologicznych, jak i społecznych. Kwestie etycznej i solidnej sztucznej inteligencji są ze sobą mocno powiązane i wzajemnie się uzupełniają.
Kwestia ram godnej zaufania sztucznej inteligencji na podstawie tych wytycznych została podzielona na trzy warstwy abstrakcji. Są to:
- Podstawy godnej zaufania sztucznej inteligencji;
- Tworzenie godnej zaufania sztucznej inteligencji;
- Ocena godnej zaufania sztucznej inteligencji.
U podstaw godnej zaufania sztucznej inteligencji muszą znajdować się prawa podstawowe, które stanowią uprawnienie moralne i prawne. Poszanowanie tych praw, w ramach demokracji i praworządności, zapewnia najbardziej obiecujące fundamenty dla określenia abstrakcyjnych zasad etycznych i wartości, którymi systemy AI powinny się kierować. Karta UE jako podstawowe prawa wymienia między innymi godność, wolność, równość i solidarność. Główną podstawą łączącą te prawa jest poszanowanie godności ludzkiej – podejście to odzwierciedla ukierunkowanie na człowieka, w który człowiek cieszy się wyjątkowym i niezbywalnym moralnym statusem pierwszeństwa w wymiarze cywilnym, politycznym, gospodarczym i społecznym.
Wymogi tworzenia sztucznej inteligencji godnej zaufania
Tworzenie sztucznej inteligencji, która jest godna zaufania opiera się na konkretnych wymogach. Te wymogi mają zastosowanie do różnych zainteresowanych stron uczestniczących w cyklu życia systemów SI: konstruktorów, wdrażających i użytkowników końcowych, jak również szerzej pojętego społeczeństwa. Co więcej, w tych wytycznych grupa ekspertów wysokiego szczebla ds. AI opracowała siedem niewiążących zasad etycznych dotyczących AI, które mają pomóc zapewnić, aby AI była godna zaufania i zgodna z normami etycznymi. Te siedem zasad, inaczej nazywanych listą kontrolną oceny godnej zaufania sztucznej inteligencji, to:
- Przewodnia i nadzorcza rola człowieka – pomaga zagwarantować, że system AI nie podważa niezależności człowieka ani nie powoduje innych negatywnych skutków;
- Solidność techniczna i bezpieczeństwo – systemy AI muszą być odporne zarówno na jawne ataki, jak i na bardziej subtelne próby manipulacji danymi lub algorytmami;
- Ochrona prywatności i zarządzanie danymi – należy zapewnić pełną kontrolę nad własnymi danymi;
- Przejrzystość – systemy AI muszą być identyfikowalne;
- Różnorodność, niedyskryminacja i sprawiedliwość – systemy AI powinny uwzględniać cały zakres ludzkich zdolności, umiejętności i wymogów oraz zapewniać dostępność dzięki podejściu opartemu na projektowaniu uniwersalnym, dążąc do równego dostępu osób z niepełnosprawnościami;
- Dobrostan społeczny i środowiskowy - należy wspierać zrównoważony rozwój i odpowiedzialność ekologiczną systemów AI;
- Odpowiedzialność - należy zapewnić możliwość kontroli zewnętrznej w przypadku zastosowań mających wpływ na prawa podstawowe, w tym zastosowań o istotnym znaczeniu dla bezpieczeństwa.[7]
Wykaz tych wymogów jednak nie jest wyczerpujący.
Wreszcie ocena godnej zaufania sztucznej inteligencji oparta jest o listę kontrolną oceny, która służy realizacji w praktyce godnej zaufania sztucznej inteligencji. Lista ta ma w szczególności zastosowanie do systemów SI, które bezpośrednio wchodzą w interakcję z użytkownikami, i jest przeznaczona przede wszystkim dla konstruktorów systemów SI i wdrażających te systemy (niezależnie od tego, czy systemy te opracowano samodzielnie, czy nabyto od osób trzecich).
Znaczenie koncepcja „zorientowanej na człowieka i godnej zaufania sztucznej inteligencji”, zostało wywiedzione z zapisów Rozporządzenia AI Act oraz powiązanych aktów prawnych i dokumentów etycznych. W centrum tego podejścia znajduje się człowiek – jego prawa, godność oraz bezpieczeństwo – co przekłada się na konieczność projektowania i stosowania systemów AI w sposób, który wzmacnia dobrostan jednostki i społeczeństwa.
Zaufanie do sztucznej inteligencji, jako podstawowy filar jej społecznej akceptacji, budowane jest poprzez zapewnienie zgodności z prawem, zasadami etycznymi oraz solidnością technologiczną. Przepisy takie jak art. 5 AI Act czy art. 22 RODO, a także Wytyczne etyczne z 2019 roku, stanowią konkretne wytyczne i ramy, które mają na celu ochronę użytkowników i minimalizację ryzyk. Kluczową rolę pełni także podejście oparte na analizie ryzyka oraz kategoryzacja systemów AI według poziomu zagrożenia, co pozwala dostosować wymagania prawne do specyfiki danego rozwiązania.
Podsumowując, zorientowana na człowieka i godna zaufania sztuczna inteligencja nie jest jedynie postulatem o charakterze ideologicznym, lecz konkretnym celem regulacyjnym i etycznym, którego realizacja wymaga ścisłej współpracy prawodawców, twórców technologii, użytkowników oraz całego społeczeństwa. Tylko w taki sposób możliwe jest rozwijanie AI, która nie tylko zwiększa efektywność i innowacyjność, ale przede wszystkim służy człowiekowi, jego prawom i wartościom.
Autor: K. Jakub Gładkowski, radca prawny, partner, kancelaria radców prawnych KG LEGAL KIEŁTYKA GŁADKOWSKI
*********
[1] https://eur-lex.europa.eu/legal-content/PL/TXT/PDF/?uri=CELEX:52019DC0168&qid=1747901426709
[2] Ww.
[3] Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji)
[4] D. Flisak, Akt w sprawie sztucznej inteligencji, LEX/el. 2024.
[5] Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) (Dz. U. UE. L. z 2016 r. Nr 119, str. 1 z późn. zm.).
[6]https://www.europarl.europa.eu/meetdocs/2014_2019/plmrep/COMMITTEES/JURI/DV/2019/11-06/Ethics-guidelines-AI_PL.pdf
[7] Motyw 27 AI Act.