REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

UE bierze się za sztuczną inteligencję (AI Act). Będą nowe zakazy, kary i obowiązki

Subskrybuj nas na Youtube
Dołącz do ekspertów Dołącz do grona ekspertów
Robert Nogacki
radca prawny
UE bierze się za sztuczną inteligencję, rozporządzeniem AI Act. Będą nowe zakazy, kary i obowiązki
UE bierze się za sztuczną inteligencję, rozporządzeniem AI Act. Będą nowe zakazy, kary i obowiązki
shutterstock

REKLAMA

REKLAMA

UE chce uregulować sztuczną inteligencję. Parlament Europejski już przyjął rozporządzenie w tej sprawie, tzw. Artificial Intelligence Act (AI Act). Określa ono jakie praktyki stosowania AI są zakazane, a które niosą ze sobą wysokie ryzyko. Większość nowych obowiązków spoczywa na dostawcach systemów sztucznej inteligencji wysokiego ryzyka. Grożą kary nawet do 35 mln euro.

Pierwsze unijne ramy regulacyjne dotyczące sztucznej inteligencji Komisja Europejska zaproponowała już w kwietniu 2021 r. Systemy AI, które mogą być wykorzystywane w różnych dziedzinach życia, są analizowane i klasyfikowane zgodnie z ryzykiem, jakie stwarzają dla użytkowników. Różne poziomy ryzyka będą oznaczać więcej lub mniej regulacji. Aplikacje AI wpływają na to, jakie informacje użytkownik widzi w sieci przewidując, jakie treści są dla niego interesujące. Przechwytują i analizują informacje z twarzy w celu egzekwowania prawa lub personalizacji reklam, a także są wykorzystywane w wielu innych aspektach życia.

REKLAMA

AI Act to kompleksowy akt prawny UE dotyczący sztucznej inteligencji

AI Act to pierwszy na świecie kompleksowy akt prawny dotyczący sztucznej inteligencji. Unijne rozporządzenie tworzy klasyfikację AI przypisując jej wykorzystywanie do trzech kategorii ryzyka:

  • Po pierwsze, aplikacje i systemy, które stwarzają niedopuszczalne ryzyko, takie jak rządowy scoring społeczny (systemy oceny społecznej) typu stosowanego w Chinach, są zakazane.
  • Po drugie, aplikacje wysokiego ryzyka, takie jak narzędzie do skanowania CV, które klasyfikuje kandydatów do pracy, muszą spełniać określone normy.
  • Po trzecie, systemy o ograniczonym ryzyku AI (niskie lub minimalne) podlegają obowiązkom w zakresie przejrzystości - developerzy i wdrożeniowcy muszą zapewnić, że użytkownicy końcowi są świadomi tego, iż wchodzą w interakcję ze sztuczną inteligencją (chatboty i deep fakes).

Są też aplikacje, systemy, które nie zostały wyraźnie zakazane lub wymienione jako obarczone wysokim ryzykiem. Kategoryzuje się je jako niosące minimalne ryzyko dla użytkowników i pozostawia nieuregulowanymi.

Nowe przepisy dotyczą m.in. dostawców wprowadzających do obrotu lub oddających do użytku systemy AI lub wprowadzających do obrotu na rynek UE modele sztucznej inteligencji

REKLAMA

Zgodnie z art. 2 rozporządzenia, jego regulacje dotyczą dostawców wprowadzających do obrotu lub oddających do użytku systemy AI lub wprowadzających do obrotu na rynek modele sztucznej inteligencji ogólnego przeznaczenia w Unii Europejskiej, niezależnie od tego, czy dostawcy ci mają siedzibę lub miejsce prowadzenia działalności na jej terytorium, czy na terytorium w państwie trzecim. Kolejnym adresatem są podmioty wdrażające systemy AI, które mają miejsce prowadzenia działalności lub które znajdują się na terytorium Unii, a także dostawcy i podmioty wdrażające, którzy mają miejsce prowadzenia działalności lub którzy mają siedzibę w państwie trzecim, w którym wytworzone przez AI produkty są wykorzystywane w UE.

Przepisy dotyczą również importerów i dystrybutorów systemów AI. Chodzi o producentów produktów wprowadzających do obrotu lub oddających do użytku system AI wraz ze swoim produktem i pod własną nazwą lub znakiem towarowym, upoważnionych przedstawicieli dostawców niemających siedziby w Unii, i inne zainteresowane osoby, które mają siedzibę w UE.

Dalszy ciąg materiału pod wideo

Zakazane praktyki w zakresie wykorzystywania sztucznej inteligencji

Zakazane są praktyki, które mogą manipulować ludźmi za pomocą technik podprogowych poza ich świadomością lub wykorzystywania słabości określonych grup społecznych szczególnie wrażliwych, takich jak dzieci lub osoby niepełnosprawne, w celu istotnego zniekształcenia ich zachowania w sposób, który może wyrządzić im lub innej osobie szkodę psychiczną lub fizyczną. Inne praktyki manipulacyjne lub wykorzystujące osoby dorosłe, które mogą być ułatwione przez systemy sztucznej inteligencji, mogą być objęte istniejącymi przepisami dotyczącymi ochrony danych, ochrony konsumentów i usług cyfrowych, które gwarantują, że osoby fizyczne są odpowiednio informowane i mają wolny wybór, aby nie podlegać profilowaniu lub innym praktykom, które mogą wpływać na ich zachowanie. Poza wyjątkami, zabronione jest również stosowanie zdalnych systemów identyfikacji biometrycznej "w czasie rzeczywistym" w publicznie dostępnych przestrzeniach w celu egzekwowania prawa.

Systemy AI wysokiego ryzyka na rynku UE

REKLAMA

Systemy AI wysokiego ryzyka są dozwolone na rynku europejskim pod warunkiem spełnienia określonych obowiązkowych wymogów i oceny zgodności ex ante (z góry, przed wdrożeniem). Klasyfikacja do wysokiego ryzyka zależy nie tylko od funkcji pełnionej przez system AI, ale także od konkretnego celu i warunków, w jakich jest on wykorzystywany.

Systemy AI wysokiego ryzyka muszą wypełniać wymogi w odniesieniu do danych i zarządzania danymi, dokumentacji i prowadzenia rejestrów, przejrzystości i dostarczania informacji użytkownikom, nadzoru ludzkiego, solidności, dokładności i bezpieczeństwa. Dokładne rozwiązania techniczne mające na celu osiągnięcie zgodności z tymi wymogami mogą być zapewnione przez normy lub inne specyfikacje techniczne lub w inny sposób opracowane zgodnie z ogólną wiedzą inżynieryjną lub naukową według uznania dostawcy systemu AI.
Systemy wysokiego ryzyka AI to systemy sztucznej inteligencji stosowane jako element bezpieczeństwa w którymś z produktów wskazanych w Załączniku nr 2 do rozporządzenia, oraz w takich obszarach jak kategoryzacja osób, edukacja, zatrudnienie, egzekwowanie prawa i wymiar sprawiedliwości.

Obowiązki w zakresie przejrzystości systemów AI

Przedsiębiorstwa dostarczające systemy sztucznej inteligencji będą musiały wypełniać obowiązki związane ze szczególnym ryzykiem manipulacji, jakie systemy te mogą stwarzać. To tzw. obowiązki w zakresie przejrzystości, które będą miały zastosowanie do systemów: wchodzących w interakcje z ludźmi, wykorzystywanych do wykrywania emocji lub określania powiązań z kategoriami (społecznymi) na podstawie danych biometrycznych lub generujących treści lub manipulujących nimi ("deep fakes").

Gdy osoby wchodzą w interakcję z AI lub ich emocje lub cechy są rozpoznawane za pomocą zautomatyzowanych środków, muszą zostać poinformowane o tej okoliczności. Jeśli system sztucznej inteligencji jest wykorzystywany do generowania lub manipulowania treściami graficznymi, dźwiękowymi lub wideo, które w znacznym stopniu przypominają autentyczne treści, należy wówczas ujawniać, że treści te są generowane w sposób zautomatyzowany, z zastrzeżeniem wyjątków dla uzasadnionych celów, takich jak egzekwowanie prawa, czy wolność wypowiedzi.

Koszty finansowe i osobowe przestrzegania nowych przepisów AI Act

Autorzy rozporządzenia w 2021 r. przyznali, że przedsiębiorstwa, które opracowują lub wykorzystują aplikacje AI wysokiego ryzyka, przy spełnianiu nowych wymogów i obowiązków, do 2025 roku będą musiały się liczyć z niebagatelnymi kosztami, jakie będą towarzyszyć dostawie, weryfikacji czy nadzoru nad takimi systemami. Firmy, które opracowują lub wykorzystują aplikacje AI niesklasyfikowane jako wysokiego ryzyka, miałyby jedynie minimalne obowiązki informacyjne. Mogłyby one jednak zdecydować się na dołączenie do innych i wspólnie przyjąć kodeks postępowania w celu przestrzegania odpowiednich wymogów i zapewnienia, że ich systemy sztucznej inteligencji są godne zaufania. W takim przypadku koszty byłyby co najwyżej tak wysokie, jak w przypadku systemów AI wysokiego ryzyka.

Naruszenia w obszarze zakazanych praktyk AI oznaczają wysokie kary, skuteczne i odstraszające

By zabezpieczyć przestrzeganie nowych przepisów w rozporządzeniu przewidziano surowe kary, które mają być skuteczne, proporcjonalne i odstraszające. Naruszenia w obszarze zakazanych praktyk AI zagrożone są karą w wysokości do 35 000 000 euro lub do 7% rocznego światowego obrotu w przypadku przedsiębiorstwa, w zależności od tego, która z tych kar będzie dla niego wyższa. Dostarczenie właściwym organom krajowym nieprawidłowych informacji wymaganych rozporządzeniem podlega karze do 7 500 000 euro lub 1% obrotu.

Podsumowując, rozporządzenie AI harmonizuje przepisy dotyczące wprowadzania do obrotu, oddawania do użytku i używania systemów sztucznej inteligencji na terytorium Unii Europejskiej. Ustanawia zakaz stosowania niektórych praktyk w zakresie AI, a także określa szczególne wymogi dotyczące systemów sztucznej inteligencji wysokiego ryzyka i wynikające z tego obowiązki operatorów tych systemów. Unifikuje również przepisy w zakresie przejrzystości systemów AI przeznaczonych do interakcji z konsumentami, systemów rozpoznawania emocji i systemów kategoryzacji biometrycznej oraz systemów sztucznej inteligencji wykorzystywanych do generowania lub przetwarzania treści graficznych, dźwiękowych lub wideo. Wprowadza regulacje dotyczące monitorowania i nadzoru rynku. Ale ustanawia również środki wspierające innowacje, ze szczególnym uwzględnieniem sektora małych i średnich przedsiębiorstw, w tym startupów. Na przedsiębiorców związanych z dostarczaniem, udostępnianiem systemów sztucznej inteligencji AI spadnie jednak obowiązek i wysokie koszty dostosowania się do wymogów nowych przepisów. Jeszcze wyższy jest ciężar ewentualnych kar, jaki nad nimi zawiśnie.

Na tym etapie trudno jeszcze oceniać wartość wprowadzonych regulacji. Jednak potrzeba zwiększenia kontroli nad coraz bardziej powszechnym z każdym dniem zjawiskiem wykorzystywania AI w wielu dziedzinach życia nie ulega wątpliwości. Olbrzymie możliwości AI powodują bowiem, że pozostawienie jej wykorzystywania bez zapewnienia odpowiedniego nadzoru mogłoby stanowić ogromne zagrożenie. Wprowadzone przepisy mają chronić użytkowników zapewniając im świadomość tego, co jest wytworem człowieka, a co komputera, i stanowić prewencję przeciw „dzikiemu” rozwojowi zastosowań sztucznej inteligencji.

Zapisz się na newsletter
Najlepsze artykuły, najpoczytniejsze tematy, zmiany w prawie i porady. Skoncentrowana dawka wiadomości z różnych kategorii: prawo, księgowość, kadry, biznes, nieruchomości, pieniądze, edukacja. Zapisz się na nasz newsletter i bądź zawsze na czasie.
Zaznacz wymagane zgody
loading
Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich
Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj.
success

Potwierdź zapis

Sprawdź maila, żeby potwierdzić swój zapis na newsletter. Jeśli nie widzisz wiadomości, sprawdź folder SPAM w swojej skrzynce.

failure

Coś poszło nie tak

Źródło: INFOR

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:
Autopromocja

REKLAMA

QR Code

© Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A.

REKLAMA

Prawo
Zapisz się na newsletter
Zobacz przykładowy newsletter
Zapisz się
Wpisz poprawny e-mail
Polska 2050 skierowała list do Donalda Tuska. Zawiera 5 punktów

Polska 2050 skierowała oficjalny list do premiera Donalda Tuska, przedstawiając pięć kluczowych postulatów programowych, które partia chce, by znalazły się w jego nadchodzącym exposé. Wśród propozycji znalazły się m.in. ustawa o odpolitycznieniu mediów publicznych, profesjonalizacja Spółek Skarbu Państwa oraz wprowadzenie zakazu używania smartfonów w szkołach podstawowych.

Etykieta komunikacji mailowej w biznesie

W dobie cyfrowego obiegu informacji, wiadomość e-mail stała się jednym z najważniejszych narzędzi komunikacji w biznesie. To, jak piszemy i wysyłamy wiadomości, świadczy nie tylko o naszym profesjonalizmie, ale też o szacunku do odbiorcy. Niniejszy tekst przybliża zasady etykiety mailowej, które pomagają budować wiarygodność i pozytywny wizerunek w relacjach zawodowych.

Pożyczkę zaciągnął oszust, na Twoje skradzione dane? To nic – sąd wyda nakaz zapłaty, a komornik ją od Ciebie wyegzekwuje (łącznie z odsetkami i kosztami sądowymi). Tak orzekają polskie sądy [prawomocny wyrok]

Oszust zaciągnął pożyczkę na wyłudzone od kobiety dane osobowe, w następstwie czego – sąd wydał nakaz zapłaty, w którym zobowiązał ją do jej zwrotu (wraz z odsetkami i kosztami sądowymi), a komornik nakaz ten „wykonał” doprowadzając do wyegzekwowania należności od ofiary przestępstwa. Wyrok jest prawomocny (i wszystkie postanowienia sądu, które odrzucają „próby” obrony kobiety przed jego wykonaniem również), nie zgodził się z nim jedynie Rzecznik Praw Obywatelskich (RPO).

Pilotaż skróconego czasu pracy. Już wkrótce poznamy szczegóły

W Polsce rusza pierwszy w Europie Środkowo-Wschodniej ogólnokrajowy pilotaż skróconego czasu pracy. Już wkrótce poznamy szczegóły programu, który ma na celu poprawę dobrostanu pracowników przy jednoczesnym utrzymaniu efektywności pracy i poziomu wynagrodzeń. Inicjatywa budzi duże zainteresowanie zarówno wśród pracodawców, jak i ekspertów rynku pracy.

REKLAMA

Komunikat PKW: Nieprawidłowości w maksymalnie 10 komisjach; będzie sprawozdanie z wyborów prezydenckich

Państwowa Komisja Wyborcza przygotowuje obecnie sprawozdanie analizując m.in. informacje przekazywane przez okręgowe komisje wyborcze - podała 10 czerwca PKW w komunikacie. Szef PKW Sylwester Marciniak powiedział mediom, że sygnały o możliwych nieprawidłowościach dotyczą nie więcej niż 10 komisji, co na tym etapie nie powinno mieć wpływu na wynik wyborów.

Pieniędzy nie dadzą, ale do 15 lat pozbawienia wolności już tak - za brak opieki nad niepełnosprawnymi, nad teściami: ogólnie osobami nieporadnymi

Ostatnio jest "burza" wokół uprawnień dla osób z niepełnosprawnościami. Obiecywano wiele, a wyjdzie jak zwykle. Ba - pieniędzy nie dadzą, ale do 15 lat pozbawienia wolności już tak. Za co? No np. za brak opieki nad osobami z niepełnosprawnościami, za brak opieki nad teściami, rodzicami innymi: ogólnie osobami nieporadnymi. Cóż... można teściów lubić lub nie, podobnie z innymi bliskimi, ale nigdy nie powinno się ich zostawiać na pastwę losu, gdyż może to grozić konsekwencjami karnymi, nawet pozbawieniem wolności na wiele, wiele lat.

Sondaż zaufania: Jest zupełnie nowy lider, już nie Rafał Trzaskowski

W najnowszym sondażu zaufania Rafał Trzaskowski traci pozycję lidera. Zastępuje go były prezydent Aleksander Kwaśniewski, który debiutuje w zestawieniu. Wzrosty notują Sławomir Mentzen i Karol Nawrocki, a Donald Tusk i Jarosław Kaczyński tracą poparcie społeczne.

Nie dla teściów 7000 zł zasiłku pogrzebowego. Prezydent RP podpisał ustawę

Wreszcie! Wreszcie, po tylu latach jest ustawa podwyższająca kwotę zasiłku pogrzebowego z 4 000 zł do 7 000 zł, takie kwoty nie są jednak przewidziane dla każdego. Ustawa z dnia 9 maja 2025 r. o zmianie ustawy o emeryturach i rentach z Funduszu Ubezpieczeń Społecznych oraz niektórych innych ustaw, podpisana przez Prezydenta w dniu 30 maja 2025 r - przewiduje szereg wyjątków i zastrzeżeń!

REKLAMA

Już postanowione. Od lipca praca tylko przez cztery dni w tygodniu. Będzie 35-godzinny tydzień pracy

Przemęczeni zestresowani... Polacy dołączyli do czołówki najbardziej zapracowanych narodów w Europie. To zdanie potwierdzają dane Eurostatu. Tak jak my harują też Grecy i Rumuni. Czy będziemy pracować mniej? Na razie resort rodziny, pracy i polityki społecznej deklaruje, że do końca tej kadencji rządu czyli do 2027, zostaną w naszym kraju wdrożone przepisy skracające czas pracy. Są jednak tacy, którzy na ustawowe rozwiązania nie czekają i rewolucyjne zmiany wprowadzają sami.

Specustawa niekorzystna dla wcześniejszych emerytów - pozorne wykonanie wyroku TK z 4 czerwca 2024 r. Adwokat: zadowolone będą tylko osoby nieobjęte tymi przepisami

Po opublikowaniu w dniu 3 marca 2025 r. założeń projektu ustawy o ustalaniu wysokości emerytur z Funduszu Ubezpieczeń Społecznych dla osób, które do 6 czerwca 2012 r. przeszły na emerytury wcześniejsze na stronach Rządowego Centrum Legislacji ukazał się długo oczekiwany projekt tej ustawy datowany na 4 czerwca 2025 r.

REKLAMA