REKLAMA
Zarejestruj się
REKLAMA
Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 (dalej „AI Act” lub „Rozporządzenie”) obowiązuje w Unii Europejskiej od 1 sierpnia 2024 r., przy czym start stosowania poszczególnych przepisów został podzielony na fazy rozłożone w czasie. W sierpniu 2026 rozpocznie się stosowanie regulacji w części dotyczącej systemów AI wysokiego ryzyka, obowiązków dotyczących przejrzystości, a także egzekwowanie AI Act na szczeblu krajowym. Z tym ostatnim związany jest projekt ustawy o systemach sztucznej inteligencji, który obecnie jest na etapie prac sejmowych.
Większość organizacji wierzy, że wdraża sztuczną inteligencję. W rzeczywistości wdraża coś znacznie bardziej niebezpiecznego: brak decyzji. Skoro AI nie podejmuje decyzji to kto naprawdę decyduje?
Sztuczna inteligencja weszła do rekrutacji szybciej niż większość firm zdążyła przygotować zasady jej używania. Najpierw były proste narzędzia do sortowania aplikacji. Potem systemy, które analizują CV, porównują kandydatów, sugerują shortlisty albo pomagają ocenić dopasowanie do stanowiska. Dziś w wielu organizacjach AI działa już nie jako ciekawostka, ale jako element codziennej pracy HR. I właśnie dlatego rekrutacja jest jednym z tych obszarów, na które AI Act patrzy szczególnie uważnie.
W związku z nadchodząca publikacją "Białej Księgi Regulacji Cyfrowych" redakcja Infor.pl zadała pytania Patrycji Sass-Staniszewskiej, prezes Izby Gospodarki Elektronicznej. Rozmowa dotyczy tego, czy europejskie i krajowe prawo nadąża za tempem zmian technologicznych, jak nowe regulacje uderzają w przedsiębiorców zwłaszcza z sektora MSP oraz co w praktyce oznaczają dla konsumentów. Poniżej prezentujemy pełne odpowiedzi.
REKLAMA
Ośmiu na dziesięciu polskich internautów robi zakupy w sieci, a e-commerce należy do najszybciej rosnących sektorów krajowej gospodarki. Tymczasem lawina nowych unijnych regulacji, od DSA przez AI Act po przepisy konsumenckie, zmienia reguły gry dla wszystkich: sprzedawców, platform i kupujących. Kto nie śledzi zmian, może wkrótce zapłacić za to wysoką cenę.
Bruksela przesadza z regulacjami? Prezes UODO twierdzi coś odwrotnego: na deepfake’i UE wciąż nie ma kompletnych narzędzi, a Polska powinna dopisać własne, ostrzejsze przepisy. Po wecie prezydenta do ustawy wdrażającej DSA temat wraca na stół – i może wrócić z większą siłą.
Obowiązkowe szkolenia z obsługi sztucznej inteligencji miały objąć praktycznie każdą firmę korzystającą z narzędzi AI. Tymczasem Komisja Europejska niespodziewanie zaproponowała rewolucyjną zmianę, która może całkowicie przewrócić dotychczasowe plany przedsiębiorców. Co to oznacza dla polskich firm i ich pracowników? Sprawdź, zanim będzie za późno.
AI Act to rdzeń prawny dla uregulowania zasad handlu i stosowania technologii ze sztuczną inteligencją w Unii Europejskiej. Ten kluczowy dokument, który można sklasyfikować w segmencie prawa materialnego należy czytać przede wszystkim jako listę „zakazów” dla pełnej wolności gospodarczej w szczytnym celu: mianowicie chodzi o utrzymanie właściwej równowagi pomiędzy ochroną rynku a konkurencyjnością Europy wobec innych rynków światowych.
REKLAMA
Aspekty prawne biometrii. Komentarz ekspercki. Dane biometryczne stanowią głęboką ingerencję w prywatność, a ich przetwarzanie może stanowić poważne zagrożenie dla podstawowych praw osób, których dane dotyczą. Kiedy można je przetwarzać?
Sztuczna inteligencja zdobywa coraz większą rolę w tworzeniu dzieł – od opowiadań, przez obrazy, aż po muzykę. Jednak prawo autorskie wciąż nie nadąża za tempem rozwoju technologii. Kto chroni twórców, gdy SI staje się współautorem? Unijne regulacje AI Act i rosnąca liczba pozwów mogą przynieść zmiany w ochronie twórczości w erze cyfrowej.
Przepisy regulujące korzystanie ze sztucznej inteligencji przez firmy, tak zwany AI Act, weszły w życie 1 sierpnia 2024 r. Ich celem jest wspieranie biznesu w odpowiedzialnym wdrażaniu oraz rozwoju AI, uwzględniając podnoszenie poziomu bezpieczeństwa obywateli Unii Europejskiej.
UE chce uregulować sztuczną inteligencję. Parlament Europejski już przyjął rozporządzenie w tej sprawie, tzw. Artificial Intelligence Act (AI Act). Określa ono jakie praktyki stosowania AI są zakazane, a które niosą ze sobą wysokie ryzyko. Większość nowych obowiązków spoczywa na dostawcach systemów sztucznej inteligencji wysokiego ryzyka. Grożą kary nawet do 35 mln euro.
Zatwierdzony przez Parlament Europejski AI Act to pierwsza regulacja szeroko obejmująca obszar sztucznej inteligencji. Michał Boni, były minister cyfryzacji, uważa, że należy przygotować plan wdrożenia regulacji o sztucznej inteligencji.
REKLAMA