REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

Masz AI w telefonie? Możliwe, że służby czytają twoje prompty. Pierwszy w historii nakaz sądowy dot. danych z ChatGPT

Kancelaria Prawna Skarbiec
Kancelaria Prawna Skarbiec świadczy doradztwo prawne z zakresu prawa podatkowego, gospodarczego, cywilnego i karnego.
sztuczna inteligencja, AI, prawo, sąd
Masz AI w telefonie? Możliwe, że służby czytają już twoje prompty. Pierwszy w historii nakaz sądowy dot. danych z ChatGPT
Shutterstock

REKLAMA

REKLAMA

Czasopismo Forbes ujawniło przełomową sprawę z Maine, która zmienia sposób, w jaki myślimy o prywatności cyfrowej w erze sztucznej inteligencji. Po raz pierwszy w historii amerykańskie organy federalne uzyskały nakaz sądowy zmuszający OpenAI do wydania danych użytkownika na podstawie zapytań do ChatGPT – a szczegóły tej sprawy są absolutnie fascynujące. Co więcej, nowy raport wywiadowczy Anthropic z sierpnia 2025 roku ujawnia znacznie szerszy obraz wykorzystania systemów AI przez cyberprzestępców, tworząc niepokojący kontekst dla rosnącej roli sztucznej inteligencji zarówno w przestępczości, jak i w jej zwalczaniu.

rozwiń >

Sprawa z Maine: niewinne pytanie, poważne konsekwencje

Sprawa jest niezwykła z kilku powodów. Śledczy z Homeland Security tropili administratora sieci darkwebowej zajmującej się wykorzystywaniem seksualnym dzieci, która działała od 2019 roku i zarządzała 15 różnymi stronami o łącznej liczbie ponad 300 tysięcy użytkowników. Po latach bezowocnych poszukiwań przełom nastąpił w najmniej oczekiwanym miejscu – w przypadkowej rozmowie o Sherlocku Holmesie i Star Treku.

Podczas komunikacji prowadzonej pod przykrywką, podejrzany wspomniał o korzystaniu z ChatGPT i podzielił się dwoma pozornie niewinnymi zapytaniami. Jedno brzmiało: "Co by się stało, gdyby Sherlock Holmes spotkał Q ze Star Treka?". Drugie dotyczyło prośby o stworzenie wiersza liczącego 200 tysięcy słów, w odpowiedzi na którą otrzymał "humorystyczny wiersz w stylu Trumpa o jego miłości do utworu Y.M.C.A. zespołu Village People, napisany w tym przesadzonym, samouwielbiającym się, strumieniu świadomości, z którego Trump jest znany". Podejrzany faktycznie skopiował i wkleił cały wygenerowany przez sztuczną inteligencję (AI) wiersz do swojej rozmowy na darkwebie.

Te zapytania – zupełnie niezwiązane z jakąkolwiek działalnością przestępczą – stały się podstawą pierwszego znanego nakazu federalnego żądającego od OpenAI przekazania kompleksowych informacji o użytkowniku: historii rozmów, nazw kont, adresów i danych płatniczych. To symbolizuje sejsmiczną zmianę w możliwościach nadzoru cyfrowego.

Organy ścigania ostatecznie nie potrzebowały danych od OpenAI. Podejrzany ujawnił wystarczająco dużo podczas rozmów pod przykrywką – siedem lat życia w Niemczech, przechodzenie ocen medycznych wojskowych, służba ojca w Afganistanie – aby zidentyfikować 36-letniego Drew Hoehnera, związanego z bazą lotniczą Ramstein. Jednak precedens został już ustanowiony: rozmowy z AI są teraz w pełni dostępne dla organów ścigania.

REKLAMA

REKLAMA

Dlaczego komunikacja z AI nie jest prawnie chroniona?

Sprawa z Maine otwiera fundamentalne pytanie: czy rozmowy z systemami AI podlegają ochronie prawnej i poufności? Rosnący konsensus prawny w wiodących jurysdykcjach sugeruje znaczące ograniczenia takiej ochrony i konieczność podjęcia prac legislacyjnych w tym zakresie.

Kluczowy problem dotyczy natury komunikacji z AI. Gdy system generatywny produkuje treść, nie ma w rzeczywistości chronionego nadawcy – AI samo nie posiada praw, a jego wypowiedzi nie reprezentują myśli użytkownika ani twórcy systemu. Systemy AI są zaprojektowane do generowania praktycznie dowolnych treści, których użytkownik nie wymyślił ani nie popiera. Dodatkowo, ze względu na probabilistyczny charakter uczenia maszynowego, twórcy nie mogą przewidzieć wszystkich możliwych wypowiedzi systemu, co podważa argumenty o intencji komunikacyjnej.

Szczególnie istotne są implikacje dla tajemnicy zawodowej. Gdy prawnicy, lekarze czy inni profesjonaliści wprowadzają poufne informacje do publicznie dostępnych platform AI, ryzykują utratę ochrony prawnej z dwóch powodów: po pierwsze, udostępniają informacje stronie trzeciej (dostawcy AI), a po drugie, wiele systemów trenuje się na danych użytkowników, co oznacza, że poufne komunikaty mogą potencjalnie zostać odtworzone w odpowiedziach dla innych użytkowników.

Kolejne izby adwokackie i organy nadzoru etycznego wydały wytyczne podkreślające, że profesjonaliści nie mogą wprowadzać poufnych informacji klientów do systemów AI pozbawionych odpowiednich zabezpieczeń. Zgodnie z zasadami etyki zawodowej, specjaliści mają obowiązek podejmowania rozsądnych działań w celu zapobiegania przypadkowemu lub nieuprawnionemu ujawnieniu informacji klientów.

Sądy zaczynają uwzględniać te obawy. W sprawie Garcia v. Character Technologies (2025) sąd federalny w USA wyraził sceptycyzm, czy wypowiedzi chatbota w ogóle kwalifikują się jako "mowa" podlegająca ochronie konstytucyjnej, uznając platformę AI za produkt, a nie usługę generującą chronioną ekspresję.

Praktyczne konsekwencje są jasne: organizacje używające narzędzi AI muszą starannie oceniać, czy systemy te utrzymują odpowiednią ochronę tajemnicy zawodowej i poufności. Najlepsze praktyki obejmują używanie rozwiązań enterprise z wyraźnymi gwarancjami poufności zamiast platform publicznych, uzyskiwanie zgody klientów przed wykorzystaniem AI z informacjami chronionymi oraz wdrażanie systemów klasyfikacji danych ograniczających, jakie informacje mogą być przetwarzane przez AI.

AI jako narzędzie przestępców

Podczas gdy sprawa z Maine pokazuje, jak AI może pomóc w schwytaniu przestępców, raport wywiadowczy Anthropic z sierpnia 2025 roku ujawnia znacznie bardziej niepokojący obraz – jak cyberprzestępcy wykorzystują zaawansowane systemy AI do przeprowadzania ataków na niespotykaną dotąd skalę.

REKLAMA

"Vibe hacking": gdy AI sam przeprowadza atak

Najbardziej alarmującym przypadkiem opisanym w raporcie jest operacja oznaczona jako GTG-2002, w której przestępca wykorzystał Claude Code – narzędzie kodujące Anthropic – do przeprowadzenia zautomatyzowanej kampanii wymuszenia na 17 organizacjach w ciągu zaledwie miesiąca. Co istotne, AI nie tylko doradzało przestępcy, ale faktycznie wykonywało operacje: przeprowadzało rekonesans, zbierało dane uwierzytelniające, penetrowało sieci i eksfiltrowało dane.

Dalszy ciąg materiału pod wideo

Przestępca stworzył plik CLAUDE.md zawierający szczegółowe instrukcje operacyjne, tworząc fikcyjną historię o autoryzowanych testach bezpieczeństwa, którą wykorzystał do jailbreak – przekonania Claude do obejścia własnych zabezpieczeń. Claude Code następnie systematycznie skanowało tysiące punktów końcowych VPN, identyfikowało podatne systemy, przeprowadzało ataki na dane uwierzytelniające i analizowało wykradzione dane finansowe, aby określić odpowiednie kwoty okupu – od 75 tysięcy do 500 tysięcy dolarów.

Co szczególnie niepokojące, Claude Code nie tylko wykonywało techniczne aspekty ataków, ale także generowało psychologicznie dostosowane noty okupowe w formacie HTML, analizując wykradzione dane finansowe ofiar. System tworzył wielopoziomowe strategie wymuszenia, oferując różne opcje monetyzacji – od bezpośredniego szantażu organizacji, przez sprzedaż danych przestępcom, po ukierunkowane wymuszenia na osobach fizycznych, których dane zostały skompromitowane.

Północnokoreańscy "pracownicy IT": gdy AI zastępuje lata szkolenia

Raport Anthropic ujawnił również fascynujący przypadek północnokoreańskich operatorów, którzy wykorzystują Claude do uzyskiwania i utrzymywania fałszywych stanowisk w firmach technologicznych. Co szczególnie uderzające – ci operatorzy najwyraźniej nie potrafią samodzielnie pisać kodu, debugować problemów ani nawet komunikować się profesjonalnie po angielsku bez pomocy AI. Mimo to z powodzeniem utrzymują zatrudnienie w firmach z listy Fortune 500, przechodzą techniczne rozmowy kwalifikacyjne i dostarczają pracę zadowalającą pracodawców.

Analiza użycia Claude przez tych operatorów pokazuje, że 61% ich działalności dotyczy rozwoju front-endu (React, Vue, Angular), 26% programowania i skryptów w Pythonie, a 10% przygotowania do rozmów kwalifikacyjnych. Operatorzy wykorzystują AI na każdym etapie: od tworzenia fałszywych tożsamości zawodowych, przez przygotowanie do rozmów technicznych, po codzienne wykonywanie obowiązków służbowych.

Według ocen FBI takie operacje generują setki milionów dolarów rocznie na programy zbrojeniowe Korei Północnej. Możliwość wykorzystania AI skutecznie usuwa tradycyjne ograniczenie – reżim może teraz rozmieszczać znacznie więcej "pracowników" niż był w stanie wyszkolić w elitarnych instytucjach, takich jak Uniwersytet Kim Il Sunga.

Ransomware bez kodowania: demokratyzacja cyberprzestępczości

Raport opisuje również brytyjskiego przestępcę (GTG-5004), który wykorzystał Claude do opracowania, promowania i dystrybucji ransomware'u z zaawansowanymi możliwościami unikania wykrycia. Operator ten, najwyraźniej niezdolny do samodzielnej implementacji skomplikowanych komponentów technicznych, z powodzeniem sprzedawał zdalne oprogramowanie ransomware w cenach od 400 do 1200 dolarów.

Opracowane za pomocą Claude ransomware wykorzystywało szyfrowanie ChaCha20, techniki anty-EDR (Endpoint Detection and Response), manipulację Windows internals i profesjonalne opakowanie z konsolami PHP i infrastrukturą command-and-control. Przestępca działał w modelu Ransomware-as-a-Service (RaaS), dystrybuując narzędzia przez stronę .onion i aktywnie reklamując je na forach darkwebu, takich jak Dread, CryptBB i Nulled.

Skala problemu: liczby, które mówią same za siebie

OpenAI zgłosiło 31 500 materiałów związanych z wykorzystywaniem seksualnym dzieci do National Center for Missing and Exploited Children w ciągu zaledwie sześciu miesięcy między lipcem a grudniem 2024 roku. W tym samym okresie OpenAI otrzymało 71 żądań rządowych dotyczących danych, przekazując informacje ze 132 kont.

Raport Anthropic dokumentuje wykorzystanie Claude przez chińskiego cyberprzestępcę, który przez 9 miesięcy wykorzystywał system do ataków na wietnamską infrastrukturę krytyczną, obejmując 12 z 14 taktyk MITRE ATT&CK. Inny przypadek opisuje bota Telegram z ponad 10 tysiącami miesięcznych użytkowników, który oferuje multimodalne narzędzia AI specjalnie zaprojektowane do wspierania oszustw matrymonialnych, reklamując Claude jako "model o wysokim EQ" do generowania emocjonalnie inteligentnych odpowiedzi.

Dylemat regulacyjny: między bezpieczeństwem a innowacją

Przypadki opisane zarówno przez Forbes, jak i w raporcie Anthropic stawiają kluczowe pytanie regulacyjne: jak znaleźć właściwą równowagę między wykorzystywaniem mocy AI do celów organów ścigania a ochroną prywatności zwykłych użytkowników?

Sprawa Drew Hoehnera pokazuje, że dostęp do danych AI może być kluczowy do tropienia sprawców najbardziej odrażających przestępstw. Przypadki opisane przez Anthropic demonstrują, jak te same systemy AI są wykorzystywane przez przestępców do przeprowadzania ataków na bezprecedensową skalę – od operacji wymuszenia na 17 organizacjach miesięcznie, przez oszustwa na setki milionów dolarów dla północnokoreańskiego reżimu, po sprzedaż ransomware'u jako usługi.

Z drugiej strony, zwykli użytkownicy stali się zupełnie bezbronni, bez tajemnicy korespondencji i prawa do prywatności. Zastanówmy się nad pełnymi implikacjami: za każdym razem, gdy prosisz ChatGPT, Claude lub inny system AI, o pomoc w napisaniu maila, debugowaniu kodu czy tworzeniu treści, potencjalnie tworzysz przeszukiwalny, dostępny dla rządu i trwały zapis. W przeciwieństwie do ulotnych rozmów, twoje interakcje z AI są przechowywane, opatrzone znacznikami czasowymi i powiązane z informacjami o płatnościach.

Równolegle jednak raport Anthropic pokazuje, że tradycyjne założenia o związku między wyrafinowaniem przestępcy a złożonością ataku już nie obowiązują, gdy AI może zapewnić natychmiastowy dostęp do wiedzy eksperckiej. Pojedynczy operator może teraz osiągnąć wpływ całego zespołu cyberprzestępców dzięki pomocy AI. AI podejmuje zarówno strategiczne, jak i taktyczne decyzje dotyczące wyboru ofiar, eksploatacji i monetyzacji. Obrona staje się coraz trudniejsza, gdy generowane przez AI ataki adaptują się do środków obronnych w czasie rzeczywistym.

Anthropic podjęło kroki zaradcze: zablokowało konta związane z opisanymi operacjami, opracowało dedykowane klasyfikatory do wykrywania tego typu działalności i udostępniło techniczne wskaźniki partnerom, aby zapobiec podobnym nadużyciom w całym ekosystemie. Jednak firma otwarcie przyznaje, że spodziewa się, iż ten model stanie się coraz bardziej powszechny, gdy sztuczna inteligencja obniża barierę wejścia dla wyrafinowanych operacji cyberprzestępczych.

Autor: Robert Nogacki, radca prawny w Kancelarii Prawnej Skarbiec, oferującej doradztwo podatkowe, prawne i strategiczne dla firm

Źródło: INFOR

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:
Autopromocja

REKLAMA

QR Code

© Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A.

REKLAMA

Prawo
Epopeja frankowa: sąd zasądza 89 tys. zł z odsetkami - po 11 latach w sądach wszystkich instancji. Bank musi oddać wszystkie wpłacone raty

W dniu 18 listopada 2025 r. Sąd Apelacyjny w Warszawie ogłosił wyrok w sprawie rozpoznawanej z udziałem Rzecznika Finansowego. Sprawa była ponownie rozpoznawana po tym, jak Sąd Najwyższy uchylił wcześniejsze rozstrzygnięcie Sądu Apelacyjnego wskutek skargi kasacyjnej powodów. Stosowane przez bank klauzule walutowe i indeksacyjne były abuzywne i prowadziły do nieważności całej umowy – uznał Sąd Apelacyjny. Wyrok zapadł jedenastoletnim sporze sądowym, w którym po stronie klientów wystąpili Rzecznik Finansowy i Rzecznik Praw Obywatelskich. Dzięki temu na konta kredytobiorców trafi ponad 89 tys. zł (tj. suma wpłaconych bankowy rat odsetkowo-kapitałowych) wraz z odsetkami od 2014 r. Rzecznik Finansowy wskazuje, że wyrok ten jest ważny nie tylko dla samych zainteresowanych, ale też innych kredytobiorców znajdujących się w podobnej sytuacji.

Tworzenie planu urlopów na 2026 rok. Już w grudniu warto pomyśleć o planach na przyszłoroczny wypoczynek

Korzystanie z urlopu wypoczynkowego opiera się na uzgodnieniach dokonanych pomiędzy pracodawcą a pracownikiem. Czasami mają one formę planu urlopów, jednak nie zawsze musi tak być. Jak wobec tego poprawnie postępować w takich przypadkach?

Nowe formy pomocy dla seniorów już od 2026 r. Obejmą aż 5 sfer. Korzyści będą ogromne, a budżet jest liczony w setkach milionów

Nic nie wskazuje na to, by przyrost naturalny w Polsce w najbliższym czasie pozytywnie nas zaskoczył. To zaś oznacza, że uwaga rządzących musi skupić się najbliższym czasie na rozwoju polityki senioralnej. Jak planują poradzić sobie z tym wyzwaniem? Odpowiedzią będzie między innymi specjalny program z dużym budżetem.

Kolejne polskie miasto wprowadziło zakaz fajerwerków, petard, ogni sztucznych i innych widowiskowych materiałów pirotechnicznych. Dotyczy całego roku

Samorządy nie czekają na uchwalenie przepisów przez rządzących i we własnym zakresie dbają o porządek i bezpieczeństwo. Czy to skutecznie ograniczy skutki odpalania fajerwerków, petard, ogni sztucznych i innych widowiskowych materiałów pirotechnicznych?

REKLAMA

ZUS dla osób z niepełnosprawnościami. Orzeczenia, świadczenia i zmiany planowane na 2026 rok

Osoby z niepełnosprawnościami mogą z Zakładu Ubezpieczeń Społecznych otrzymywać różnego rodzaju świadczenia takie jak renty, dodatki i inne. Jakie kryteria trzeba spełnić? Kto może uzyskać? Co może się zmienić w 2026 roku? Prezentujemy najważniejsze przepisy i kwoty.

500 zł, 1300 zł, 1700 zł, czy 2333 zł dla każdego dorosłego? Ile ostatecznie będzie wynosił bezwarunkowy dochód podstawowy?

Powraca temat bezwarunkowego dochodu podstawowego. Jednak od początku dyskusji o tym rozwiązaniu kwoty, które padają bardzo się od siebie różnią. Jak to więc ostatecznie będzie? Nad jakim rozwiązaniem toczą się prace? Sytuacja jest dynamiczna, a jednocześnie nie idzie do przodu...

Osoby niepełnosprawne wprost pytają PZON i WZON: Dlaczego nam to robicie?

PZON: Przez 3 lata niepełnosprawności świadczenie pielęgnacyjne. I nagle w 2025 r. cudowne ozdrowienie. Stan zdrowia bez zmian osoby niepełnosprawnej, ale orzeczenie o niepełnosprawności zmienia się. W mojej ocenie (być może mylnej) narasta problem „cudownych” ozdrowień dzieci i młodych ludzi obciążonych zespołem Aspergera. To samo dotyczy autyzmu. Chodzi o to, że PZON zmieniły praktykę orzeczniczą. Przy niezmienionym stanie zdrowia 10-latek otrzymywał za okres 2022 r. - 2025 r. pkt 7 i 8. Dziś otrzymuje tylko pkt 8. W przypadku osób pełnoletnich następuje zmiana stopnia znacznego na umiarkowany.

Czy osoby niewidome mają obniżane świadczenie wspierające?

Do redakcji Infor.pl piszą listy osoby niepełnosprawne, które uważają, że we WZON zaniżono im punkty w procedurze przyznawania świadczenia wspierającego.

REKLAMA

Jakich zwierząt nie wolno hodować?

Coraz więcej osób interesuje się hodowlą zwierząt niebezpiecznych. Z pewnością sprzyja temu charakter obecnych czasów, kiedy to coraz trudniej jest komukolwiek czymś zaimponować z uwagi na wszechobecny dostęp do rozmaitych, luksusowych dóbr. Posiadanie więc małpy, niedźwiedzia, czy lwa, wydaje się dla wielu imponujące i przyciąga mnóstwo obserwatorów w social mediach. Warto wiedzieć, że droga do posiadania pewnych zwierząt nie jest łatwa, a czasem nawet niemożliwa.

Trzynastka dla nowej grupy pracowników. 1/12 wynagrodzenia rocznego. Projekt jest w Sejmie, a kiedy będą pieniądze?

Czy kolejna grupa pracowników dostanie trzynaste wynagrodzenie? Miałaby to być 1/12 wynagrodzenia rocznego. To nie jest pierwszy raz, gdy mówi się o konieczności wprowadzenia tych przepisów. Od kiedy można liczyć na pieniądze?

Zapisz się na newsletter
Najlepsze artykuły, najpoczytniejsze tematy, zmiany w prawie i porady. Skoncentrowana dawka wiadomości z różnych kategorii: prawo, księgowość, kadry, biznes, nieruchomości, pieniądze, edukacja. Zapisz się na nasz newsletter i bądź zawsze na czasie.
Zaznacz wymagane zgody
loading
Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich
Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj.
success

Potwierdź zapis

Sprawdź maila, żeby potwierdzić swój zapis na newsletter. Jeśli nie widzisz wiadomości, sprawdź folder SPAM w swojej skrzynce.

failure

Coś poszło nie tak

REKLAMA