REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

Zorientowana na człowieka i godna zaufania sztuczna inteligencja (AI) - czyli jaka? Jakie praktyki związane ze sztuczną inteligencją są zakazane przez AI Act?

Subskrybuj nas na Youtube
Dołącz do ekspertów Dołącz do grona ekspertów
sztuczna inteligencja, AI, prawo
Zorientowana na człowieka i godna zaufania sztuczna inteligencja (AI) - czyli jaka? Jakie praktyki związane ze sztuczną inteligencją są zakazane przez AI Act?
ShutterStock

REKLAMA

REKLAMA

AI Act to rdzeń prawny dla uregulowania zasad handlu i stosowania technologii ze sztuczną inteligencją w Unii Europejskiej. Ten kluczowy dokument, który można sklasyfikować w segmencie prawa materialnego należy czytać przede wszystkim jako listę „zakazów” dla pełnej wolności gospodarczej w szczytnym celu: mianowicie chodzi o utrzymanie właściwej równowagi pomiędzy ochroną rynku a konkurencyjnością Europy wobec innych rynków światowych.

rozwiń >

Zorientowana na człowieka i godna zaufania sztuczna inteligencja (AI) – jak to rozumieć

REKLAMA

Pojęcie prawne „zorientowanej na człowieka i godnej zaufania sztucznej inteligencji” nie znajduje legalnej definicji w Rozporządzeniu Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008 (AI ACT). Jednakże samo sformułowanie pojawia się wielokrotnie w preambule rozporządzenia oraz w artykule 1, dzięki czemu możliwe jest przeanalizowanie znaczenia tego pojęcia prawnego.

Zwrot „zorientowanej na człowieka” zwraca uwagę na fakt, iż w centrum rozwoju sztucznej inteligencji postawiony jest człowiek. AI oddziałuje na ludzkie życie w wielu sektorach, takich jak opieka zdrowotna, edukacja, transport, finanse, przemysł, rolnictwo oraz rozrywka, przekształcając sposób, w jaki pracujemy, uczymy się i komunikujemy. W wielu tych aspektach człowiek bywa narażony na niebezpieczeństwa związane z związane z utratą prywatności, dezinformacją, uprzedzeniami algorytmicznymi, uzależnieniem od technologii oraz ryzykiem utraty miejsc pracy na rzecz automatyzacji. W związku z tym unijni legislatorzy zdecydowali, że sztuczna inteligencja powinna być ukierunkowana na człowieka[1], tak aby przezwyciężyć problemy wynikające z wątpliwości wobec AI.

W wyniku bardzo szybkiego rozwoju technologicznego wiele osób pozostaje nieufnych wobec sztucznej inteligencji. Między innymi znaczna ilość ludzi nie rozumie, w jaki sposób ta technologia działa – jest dla nich skomplikowana i mało przejrzysta. Ludzie obawiają się również, że utracą kontrolę nad działaniem sztucznej inteligencji, a także mogą bać się inwigilacji czy nadużycia w związku z działaniem na podstawie ogromnych zbiorów danych (w tym danych osobowych). Z tego powodu jednym z głównych celów przyjętych przez Parlament Europejski jest zbudowanie „godnej zaufania sztucznej inteligencji”. Europejska strategia w zakresie AI wyraźnie wskazuje, że zaufanie jest warunkiem wstępnym do zapewnienia podejścia do AI ukierunkowanego na człowieka[2]. Podejście do AI oparte jest na renomie bezpiecznych i wysokiej jakości produktów, tak aby wzmocnić zaufanie obywateli do postępu cyfrowego.

REKLAMA

REKLAMA

Pojęcie prawne „zorientowanej na człowieka i godnej zaufania sztucznej inteligencji” stanowi zatem cel, jaki Unia Europejska zamierza osiągnąć, aby zapewnić wysoki poziom ochrony, zdrowia, bezpieczeństwa, praw podstawowych w Karcie praw podstawowych Unii Europejskiej. Wśród tych praw należy wymienić demokrację, praworządność i ochronę środowiska, przed szkodliwymi skutkami systemów AI w Unii.[3] W związku z tym postanowieniem na mocy AI ACT zostały dokładnie uregulowane materie, w których sztuczna inteligencja oddziałuje na ludzi. Rozporządzenie ustanawia przepisy dotyczące wprowadzania do obrotu, oddawania do użytku oraz wykorzystanie systemów AI w Unii, a także określa zakazy dotyczące niektórych praktyk. W celu zapewnienia jak najwyższej ochrony dla kategorii osób szczególnie wrażliwych wprowadza między innymi wymogi dotyczące systemów AI wysokiego ryzyka oraz obowiązki spoczywające na operatorach takich systemów.

Ukierunkowanie rozwoju technologii sztucznej inteligencji na człowieka oznacza, że powinna ona służyć jako narzędzie dla ludzi, którego celem jest zwiększenie dobrostanu człowieka. W związku z tym AI Act wprowadza jasno określone podejście oparte na analizie ryzyka, jakie systemy sztucznej inteligencji mogą powodować. Wprowadzone zatem zostały zakazy stosowania niektórych niedopuszczalnych praktyk w zakresie AI, ustanowienie wymogów dotyczących systemów AI wysokiego ryzyka i obowiązków spoczywających na odpowiednich operatorach oraz ustanowienie obowiązków w zakresie przejrzystości w odniesieniu do niektórych systemów AI. Rozporządzenie wyróżnia cztery klasyfikacje systemów AI na podstawie oceny ryzyka funkcjonowania. Pierwszą kategorią są systemy AI, których wykorzystanie jest zakazane z uwagi na nieakceptowalny poziom ingerencji w chronione wartości (Art. 5). Kolejną kategorią stanowią systemy AI wysokiego ryzyka, które są dopuszczalne pod rygorem spełnienia licznych warunków określonych w art. 8 Rozporządzenia. Trzecią kategorię pełnią systemy AI generujące ograniczone ryzyko, zaś ostatnią - systemy, które albo nie generują żadnego ryzyka, albo utrzymuje się ono na minimalnym poziomie.[4] Nie jest to jednak klasyfikacja zupełna, ponieważ Akt wprowadza również „modele AI ogólnego przeznaczenia”, które stanowią modele zdolne do wykonywania różnych zadań, czy to w postaci samodzielnie funkcjonujących systemów ogólnego przeznaczenia, czy też poprzez ich zintegrowanie z innymi systemami lub aplikacjami. Takie rozróżnienie systemów zostało wprowadzone w celu zapewnienia bezpieczeństwa użytkowników oraz poszanowanie ich praw.

Jakie praktyki związane ze sztuczną inteligencją są zakazane

Istotnym do wyjaśnienia pojęcia „zorientowanej na człowieka sztucznej inteligencji” jest art. 5 AI Act. Na jego mocy zakazane jest stosowanie określonych praktyk związanych ze sztuczną inteligencją, które mogą zagrażać prawom i wolnościom osób fizycznych. Zakazuje się m.in.:

  • stosowania technik podprogowych będących poza świadomością danej osoby lub celowych technik manipulacyjnych lub wprowadzających w błąd;
  • wykorzystywania słabości osoby fizycznej lub określonej grupy osób ze względu na ich wiek, niepełnosprawność lub szczególną sytuację społeczną lub ekonomiczną;
  • scoringu społecznego, który jest krzywdzący lub który prowadzi do niekorzystnego traktowania;
  • przeprowadzania ocen ryzyka w odniesieniu do osób fizycznych, by ocenić lub przewidzieć ryzyko popełnienia przestępstwa przez osobę fizyczną, wyłącznie na podstawie profilowania osoby fizycznej lub oceny jej cech osobowości i cech charakterystycznych;
  • tworzenia lub rozbudowywania bazy danych służące rozpoznawaniu twarzy poprzez nieukierunkowane pozyskiwanie (ang. untargeted scraping) wizerunków twarzy z Internetu lub nagrań z telewizji przemysłowej;
  • wyciągania wniosków na temat emocji osoby fizycznej w miejscu pracy lub instytucjach edukacyjnych;
  • kategoryzacja biometrycznej, które indywidualnie kategoryzują osoby fizyczne w oparciu o ich dane biometryczne;
  • wykorzystywania systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw.

Powyższe zakazy pomagają skonkretyzować ideę „zorientowanej na człowieka AI” poprzez ustanowienie zakazów chroniących prawa podstawowe. Dzięki temu art. 5 AI Act pełni rolę etycznego filaru europejskiego podejścia do sztucznej inteligencji.

Dalszy ciąg materiału pod wideo

Obowiązek wdrożenia systematycznego zarządzania ryzykiem dla systemów AI wysokiego ryzyka

Co ciekawe, art. 9 Aktu nakłada obowiązek wdrożenia systematycznego zarządzania ryzykiem dla systemów AI zaklasyfikowanych jako wysokiego ryzyka. Stanowi również, że przez system zarządzania ryzykiem rozumie się ciągły, iteracyjny proces, planowany i realizowany przez cały cykl życia systemu AI wysokiego ryzyka, wymagający regularnego systematycznego przeglądu i aktualizacji. Uwzględnienie pełnego cyklu życia, także po wdrożeniu, odpowiada zasadzie ciągłej troski o dobro człowieka, a nie jednorazowej zgodności z przepisami. Ustanawia on konkretne wymogi, które mają chronić jednostkę, promować etyczne projektowanie AI i zapewnić jej odpowiedzialne użycie. Dzięki temu prawo nie tylko deklaruje ochronę człowieka, ale wprowadza ją w życie poprzez obowiązki techniczne i organizacyjne.

RODO a AI

Warto również zwrócić uwagę na art. 22 Ogólnego Rozporządzenia o Ochronie Danych (RODO).[5] Traktuje on o zautomatyzowanym podejmowaniu decyzji w indywidualnych przypadkach. Osoba, której dane dotyczą, ma prawo do tego, by nie podlegać decyzji, która opiera się wyłącznie na zautomatyzowanym przetwarzaniu, w tym profilowaniu, i wywołuje wobec tej osoby skutki prawne lub w podobny sposób istotnie na nią wpływa. „Profilowanie" oznacza dowolną formę zautomatyzowanego przetwarzania danych osobowych, które polega na wykorzystaniu danych osobowych do oceny niektórych czynników osobowych osoby fizycznej, w szczególności do analizy lub prognozy aspektów dotyczących efektów pracy tej osoby fizycznej, jej sytuacji ekonomicznej, zdrowia, osobistych preferencji, zainteresowań, wiarygodności, zachowania, lokalizacji lub przemieszczania się. Na podstawie tego przepisu widać ochronę osób przed sztuczną inteligencją, tak aby zagwarantować maksymalne ukierunkowanie na człowieka.

Wytyczne co do etyki godnej zaufania sztucznej inteligencji

W motywie 27 AI Act mowa jest o Wytycznych w zakresie etyki dotyczących godnej zaufania sztucznej inteligencji z 2019 r.[6] Zostały one opracowane przez niezależną grupę ekspertów wysokiego szczebla ds. AI powołaną przez Komisję, aby dążyć do maksymalizacji korzyści, jakie przynosi stosowanie systemów AI, przy jednoczesnym zapobieganiu związanym z nimi zagrożeniom oraz ograniczaniu tych zagrożeń do minimum. W tych wytycznych eksperci zwracają uwagę na fakt, iż zaufanie odnosi się nie tylko do samej technologii, ale również do właściwości systemów społeczno-technicznych. Zgodnie z opinią ekspertów tworzenie godnej zaufania sztucznej inteligencji wymaga nie tylko niezawodnych systemów, ale też podejścia całościowego, które uwzględnia wiarygodność wszystkich osób i procesów związanych z jej działaniem na każdym etapie. W związku z tym godna zaufania AI powinna posiadać trzy cechy – zgodna z prawem, etyczna, solidna. Każda z tych trzech cech jest konieczna, ale sama w sobie niewystarczająca do osiągnięcia godnej zaufania sztucznej inteligencji.

Jednakże warto pamiętać, że różne sytuacje mogą stwarzać różne wyzwania. Stosowanie sztucznej inteligencji w różnych sektorach nie wiąże się z takimi samymi wyzwaniami. Systemy AI są w dużej mierze zależne od kontekstu, dlatego powstaje wymóg dostosowania procesu wdrażania wytycznych do potrzeb związanych z konkretnym zastosowaniem AI.

Co oznaczają cechy godnej zaufania sztucznej inteligencji? Otóż, sztuczna inteligencja zgodna z prawem nie może funkcjonować w świecie bezprawia. W odniesieniu do opracowywania, wdrażania i wykorzystywania systemów AI istnieje wiele prawnie wiążących prawnie przepisów. Do głównych źródeł prawa należą między innymi:

  1. prawo pierwotne UE (traktaty i Karta praw podstawowych UE);
  2. prawo wtórne UE (np. ogólne rozporządzenie o ochronie danych, dyrektywy antydyskryminacyjne, rozporządzenie w sprawie swobodnego przepływu danych nieosobowych);
  3. konwencje ONZ dotyczące praw człowieka;
  4. konwencje Rady Europy;
  5. przepisy ustawowe państw członkowskich UE.

Wytyczne w zakresie etyki nie mogą być jednak odczytywane ani interpretowane jako doradztwo prawne czy sposób, w jaki można osiągnąć zgodność z prawem. Należy jednak pamiętać, iż w obowiązku operatorów dostarczających systemy AI leży zapewnienie zgodności z prawem tej technologii, aby była ona godna zaufania. Odnośnie etyki przepisy ustawowe nie zawsze nadążają za postępem technologicznym. Oznacza to, że czasami mogą nie być zgodne z normami etycznymi lub mogą po prostu nie być odpowiednim instrumentem na potrzeby rozwiązania określonych problemów. Mimo to, aby systemy sztucznej inteligencji były godne zaufania powinny być również etyczne poprzez zapewnienie zgodności z normami etycznymi. Najważniejszą cechą godnej zaufania sztucznej inteligencji jest jej solidność. Jednostki i społeczeństwo muszą mieć również pewność, że systemy AI nie wywołają żadnych niezamierzonych szkód. Zapewnienie solidności systemów AI jest konieczne ze względów zarówno technologicznych, jak i społecznych. Kwestie etycznej i solidnej sztucznej inteligencji są ze sobą mocno powiązane i wzajemnie się uzupełniają.

Kwestia ram godnej zaufania sztucznej inteligencji na podstawie tych wytycznych została podzielona na trzy warstwy abstrakcji. Są to:

  1. Podstawy godnej zaufania sztucznej inteligencji;
  2. Tworzenie godnej zaufania sztucznej inteligencji;
  3. Ocena godnej zaufania sztucznej inteligencji.

U podstaw godnej zaufania sztucznej inteligencji muszą znajdować się prawa podstawowe, które stanowią uprawnienie moralne i prawne. Poszanowanie tych praw, w ramach demokracji i praworządności, zapewnia najbardziej obiecujące fundamenty dla określenia abstrakcyjnych zasad etycznych i wartości, którymi systemy AI powinny się kierować. Karta UE jako podstawowe prawa wymienia między innymi godność, wolność, równość i solidarność. Główną podstawą łączącą te prawa jest poszanowanie godności ludzkiej – podejście to odzwierciedla ukierunkowanie na człowieka, w który człowiek cieszy się wyjątkowym i niezbywalnym moralnym statusem pierwszeństwa w wymiarze cywilnym, politycznym, gospodarczym i społecznym.

Wymogi tworzenia sztucznej inteligencji godnej zaufania

Tworzenie sztucznej inteligencji, która jest godna zaufania opiera się na konkretnych wymogach. Te wymogi mają zastosowanie do różnych zainteresowanych stron uczestniczących w cyklu życia systemów SI: konstruktorów, wdrażających i użytkowników końcowych, jak również szerzej pojętego społeczeństwa. Co więcej, w tych wytycznych grupa ekspertów wysokiego szczebla ds. AI opracowała siedem niewiążących zasad etycznych dotyczących AI, które mają pomóc zapewnić, aby AI była godna zaufania i zgodna z normami etycznymi. Te siedem zasad, inaczej nazywanych listą kontrolną oceny godnej zaufania sztucznej inteligencji, to:

  1. Przewodnia i nadzorcza rola człowieka – pomaga zagwarantować, że system AI nie podważa niezależności człowieka ani nie powoduje innych negatywnych skutków;
  2. Solidność techniczna i bezpieczeństwo – systemy AI muszą być odporne zarówno na jawne ataki, jak i na bardziej subtelne próby manipulacji danymi lub algorytmami;
  3. Ochrona prywatności i zarządzanie danymi – należy zapewnić pełną kontrolę nad własnymi danymi;
  4. Przejrzystość – systemy AI muszą być identyfikowalne;
  5. Różnorodność, niedyskryminacja i sprawiedliwość – systemy AI powinny uwzględniać cały zakres ludzkich zdolności, umiejętności i wymogów oraz zapewniać dostępność dzięki podejściu opartemu na projektowaniu uniwersalnym, dążąc do równego dostępu osób z niepełnosprawnościami;
  6. Dobrostan społeczny i środowiskowy - należy wspierać zrównoważony rozwój i odpowiedzialność ekologiczną systemów AI;
  7. Odpowiedzialność - należy zapewnić możliwość kontroli zewnętrznej w przypadku zastosowań mających wpływ na prawa podstawowe, w tym zastosowań o istotnym znaczeniu dla bezpieczeństwa.[7]

Wykaz tych wymogów jednak nie jest wyczerpujący.

Wreszcie ocena godnej zaufania sztucznej inteligencji oparta jest o listę kontrolną oceny, która służy realizacji w praktyce godnej zaufania sztucznej inteligencji. Lista ta ma w szczególności zastosowanie do systemów SI, które bezpośrednio wchodzą w interakcję z użytkownikami, i jest przeznaczona przede wszystkim dla konstruktorów systemów SI i wdrażających te systemy (niezależnie od tego, czy systemy te opracowano samodzielnie, czy nabyto od osób trzecich).

Znaczenie koncepcja „zorientowanej na człowieka i godnej zaufania sztucznej inteligencji”, zostało wywiedzione z zapisów Rozporządzenia AI Act oraz powiązanych aktów prawnych i dokumentów etycznych. W centrum tego podejścia znajduje się człowiek – jego prawa, godność oraz bezpieczeństwo – co przekłada się na konieczność projektowania i stosowania systemów AI w sposób, który wzmacnia dobrostan jednostki i społeczeństwa.

Zaufanie do sztucznej inteligencji, jako podstawowy filar jej społecznej akceptacji, budowane jest poprzez zapewnienie zgodności z prawem, zasadami etycznymi oraz solidnością technologiczną. Przepisy takie jak art. 5 AI Act czy art. 22 RODO, a także Wytyczne etyczne z 2019 roku, stanowią konkretne wytyczne i ramy, które mają na celu ochronę użytkowników i minimalizację ryzyk. Kluczową rolę pełni także podejście oparte na analizie ryzyka oraz kategoryzacja systemów AI według poziomu zagrożenia, co pozwala dostosować wymagania prawne do specyfiki danego rozwiązania.

Ważne

Podsumowując, zorientowana na człowieka i godna zaufania sztuczna inteligencja nie jest jedynie postulatem o charakterze ideologicznym, lecz konkretnym celem regulacyjnym i etycznym, którego realizacja wymaga ścisłej współpracy prawodawców, twórców technologii, użytkowników oraz całego społeczeństwa. Tylko w taki sposób możliwe jest rozwijanie AI, która nie tylko zwiększa efektywność i innowacyjność, ale przede wszystkim służy człowiekowi, jego prawom i wartościom.

 Autor: K. Jakub Gładkowski, radca prawny, partner, kancelaria radców prawnych KG LEGAL KIEŁTYKA GŁADKOWSKI

*********

[1] https://eur-lex.europa.eu/legal-content/PL/TXT/PDF/?uri=CELEX:52019DC0168&qid=1747901426709

[2] Ww.

[3] Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji)

[4] D. Flisak, Akt w sprawie sztucznej inteligencji, LEX/el. 2024.

[5] Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) (Dz. U. UE. L. z 2016 r. Nr 119, str. 1 z późn. zm.).

[6]https://www.europarl.europa.eu/meetdocs/2014_2019/plmrep/COMMITTEES/JURI/DV/2019/11-06/Ethics-guidelines-AI_PL.pdf

[7] Motyw 27 AI Act.

Zapisz się na newsletter
Najlepsze artykuły, najpoczytniejsze tematy, zmiany w prawie i porady. Skoncentrowana dawka wiadomości z różnych kategorii: prawo, księgowość, kadry, biznes, nieruchomości, pieniądze, edukacja. Zapisz się na nasz newsletter i bądź zawsze na czasie.
Zaznacz wymagane zgody
loading
Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich
Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj.
success

Potwierdź zapis

Sprawdź maila, żeby potwierdzić swój zapis na newsletter. Jeśli nie widzisz wiadomości, sprawdź folder SPAM w swojej skrzynce.

failure

Coś poszło nie tak

Źródło: INFOR

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:
Autopromocja

REKLAMA

QR Code

© Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A.

REKLAMA

Prawo
Zapisz się na newsletter
Zobacz przykładowy newsletter
Zapisz się
Wpisz poprawny e-mail
MOPS: utrata zasiłku przez rentę wdowią [Przykład]

W przypadku gdy uzyskanie dochodu z tytułu części emerytury spowoduje przekroczenie kryterium dochodowego uprawniającego do zasiłku rodzinnego i utratę prawa do świadczeń, to w omawianym w artykule przykładzie zasiłki rodzinne z dodatkami nie będą przysługiwać już od 1 września 2025 r. (źródło: MRPiPS).

Renta wdowia ogranicza prawo do zasiłków z MOPS. Reguły. Przykład

Renta wdowia wpływa na prawo do zasiłku rodzinnego. Jakie obowiązują tu reguły? Podamy je na przykładzie. Źródło informacji: Ministerstwo Rodziny, Pracy i Polityki Społecznej.

Dodatek dopełniający: 2610 zł co miesiąc z ZUS. 200 tysięcy osób już dostaje, ale inni zostali pominięci. Sprawdź, co się zmieni w 2025

Dodatek dopełniający w wysokości 2 610,72 zł miał być przełomem dla osób z niepełnosprawnościami. Od marca 2025 roku świadczenie trafia już do ponad 200 tys. osób, ale nie każdy z orzeczeniem je dostaje. ZUS wypłaca je tylko wybranym, co budzi ogromne kontrowersje. Rząd zapowiada nowelizację przepisów. Sprawdź, kto może zyskać, a kto wciąż zostanie pominięty mimo podobnej sytuacji zdrowotnej.

Wielka rewolucja w ZUS coraz bliżej? Nowy projekt ustawy o ubezpieczeniach społecznych zapowiada koniec biurokracji, przejęcie rozliczeń przez ZUS i cyfrową obsługę płatników

Rząd szykuje największą od lat propozycję zmian w systemie ubezpieczeń społecznych. Zakłada ona, że to ZUS przejmie od przedsiębiorców obowiązek wyliczania i rozliczania składek, co ma uprościć procedury, zmniejszyć liczbę błędów i odciążyć miliony płatników. Reforma, przygotowana przez Ministerstwo Rodziny, Pracy i Polityki Społecznej, ma zostać wdrożona etapami do 2031 roku i wprowadzić m.in. jednolity plik ubezpieczeniowy oraz pełną cyfryzację rozliczeń.

REKLAMA

MOPS: renta wdowia obniża szanse na zasiłki [Komunikat MRPiPS]

Renta wdowia jest doliczana do dochodu odbierającego prawo do świadczeń rodzinnych z MOPS. Już dziś progi dla dochodu te są niskie (by nie rzecz mocniej), gdyż nie zostały zwaloryzowane na 2026 r. Wciąż wynoszą 674 zł na osobę w rodzinie. Jeżeli w rodzinie jest dziecko niepełnosprawne, limit wzrasta do 764 zł na osobę. Wszystko to kwoty netto. To dalej bardzo, bardzo niski limit (praktycznie poniżej minimum socjalnego).

Sprzedając nieruchomość, można stracić własność i nie otrzymać od nabywcy ani grosza. Akt notarialny przed tym nie zabezpiecza. Jest jednak na to sposób, choć nie powie o nim każdy notariusz

Nie każdy jest świadomy, że dokonując sprzedaży domu czy mieszkania (pomimo zachowania wymaganej formy aktu notarialnego), można nabawić się nie lada problemów, jeżeli nie zadba się o jeden mały szczegół transakcji – moment zapłaty ceny przez nabywcę nieruchomości (lub odpowiednie zabezpieczenie tej zapłaty). W jaki sposób przeprowadzić transakcję kupna-sprzedaży domu czy mieszkania, aby pod względem uzyskania zapłaty ceny za zbywaną nieruchomość – nie wiązała się ona z ryzykiem dla sprzedającego?

Tych opłat (wbrew powszechnej praktyce) szkoły i przedszkola nie mogą pobierać od rodziców w roku szkolnym 2025/2026. Ważna informacja dla rodziców uczniów i przedszkolaków, rozpoczynających rok szkolny

Bardzo częstym zjawiskiem jest obciążanie rodziców, przez szkoły, kosztami przygotowania posiłków w stołówce szkolnej, dla dzieci uczęszczających do szkół podstawowych (a w przypadku, gdy szkoła korzysta z usług firmy cateringowej – również kosztami ich dowozu). Jest to praktyka, która nie jest jednak zgodna z przepisami ustawy – Prawo oświatowe i orzecznictwem Naczelnego Sądu Administracyjnego. Jak zatem jest z tymi obiadami w szkołach (i przedszkolach), kto i w jakim zakresie ponosi ich koszt oraz którym uczniom przysługuje całkowite zwolnienie z opłat za posiłki w roku szkolnym 2025/2026?

Za szkody najemcy zapłaci wynajmujący? Za co odpowiedzialność ponosi lokator?

Zaległości dotyczące płatności czynszu i rachunków, a także złe zachowanie najemcy prowadzące do konfliktów z sąsiadami. Tego najbardziej mogą obawiać się właściciele mieszkań rozważający ich wynajęcie. Zaległości czynszowe to częściej poruszany temat aniżeli konsekwencje złego zachowania lokatora w prywatnym mieszkaniu. Tymczasem obawy właścicieli mieszkań o skutki złego zachowania lokatora są czasem spore. Wzmacniają je uchwały wspólnot mieszkaniowych próbujące „przerzucić” na wynajmującego odpowiedzialność za nieodpowiednie zachowanie najemcy (np. spowodowanie szkód w częściach wspólnych budynku). Warto wyjaśnić, dlaczego takie uchwały są wątpliwe i poruszyć również inne aspekty złego zachowania lokatorów.

REKLAMA

1300 zł miesięcznie dla każdego dorosłego? Za to zniknąć muszą: 800+, zasiłki socjalne, 13 i 14 emerytura. Ministerstwo Finansów policzyło koszty wprowadzenia bezwarunkowego dochodu podstawowego (BDP)

W odpowiedzi na interpelację poselską, Jurand Drop, podsekretarz stanu w Ministerstwie Finansów, udzielił odpowiedzi na pytanie, czy jego resort pracuje nad wprowadzeniem w Polsce tzw. bezwarunkowego dochodu podstawowego (BDP) i jakie byłby koszty wypłaty każdemu dorosłemu obywatelowi 1300 zł tytułem BDP.

Koniec z nadużywaniem przez pracodawców umów zlecenia i umów o dzieło – zostaną one przekształcone w umowy o pracę. „Umowa o pracę zapewnia większą ochronę prawną, stabilność zatrudnienia, daje też dostęp do świadczeń i uprawnień pracowniczych”

W dniu 19 sierpnia br. do wykazu prac legislacyjnych Rady Ministrów trafił przygotowany w MRPiPS projekt ustawy o Reformie Państwowej Inspekcji Pracy. Zakłada on m.in. uprawnienie Państwowej Inspekcji Pracy (PIP) do wydawania decyzji administracyjnych o przekształceniu nieprawidłowo zawartych umów cywilnoprawnych (czyli umów zlecenia i umów o dzieło) w umowy o pracę. Ma to istotnie ograniczyć nadużycia pracodawców względem pracowników, polegające na zawieraniu przez nich umów cywilnoprawnych z pracownikami, w warunkach, w których powinna zostać zawarta umowa o pracę.

REKLAMA