REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

Masz AI w telefonie? Możliwe, że służby czytają już twoje prompty. Pierwszy w historii nakaz sądowy dot. danych z ChatGPT

Kancelaria Prawna Skarbiec
Kancelaria Prawna Skarbiec świadczy doradztwo prawne z zakresu prawa podatkowego, gospodarczego, cywilnego i karnego.
sztuczna inteligencja, AI, prawo, sąd
Masz AI w telefonie? Możliwe, że służby czytają już twoje prompty. Pierwszy w historii nakaz sądowy dot. danych z ChatGPT
Shutterstock

REKLAMA

REKLAMA

Czasopismo Forbes ujawniło przełomową sprawę z Maine, która zmienia sposób, w jaki myślimy o prywatności cyfrowej w erze sztucznej inteligencji. Po raz pierwszy w historii amerykańskie organy federalne uzyskały nakaz sądowy zmuszający OpenAI do wydania danych użytkownika na podstawie zapytań do ChatGPT – a szczegóły tej sprawy są absolutnie fascynujące. Co więcej, nowy raport wywiadowczy Anthropic z sierpnia 2025 roku ujawnia znacznie szerszy obraz wykorzystania systemów AI przez cyberprzestępców, tworząc niepokojący kontekst dla rosnącej roli sztucznej inteligencji zarówno w przestępczości, jak i w jej zwalczaniu.

rozwiń >

Sprawa z Maine: niewinne pytanie, poważne konsekwencje

Sprawa jest niezwykła z kilku powodów. Śledczy z Homeland Security tropili administratora sieci darkwebowej zajmującej się wykorzystywaniem seksualnym dzieci, która działała od 2019 roku i zarządzała 15 różnymi stronami o łącznej liczbie ponad 300 tysięcy użytkowników. Po latach bezowocnych poszukiwań przełom nastąpił w najmniej oczekiwanym miejscu – w przypadkowej rozmowie o Sherlocku Holmesie i Star Treku.

Podczas komunikacji prowadzonej pod przykrywką, podejrzany wspomniał o korzystaniu z ChatGPT i podzielił się dwoma pozornie niewinnymi zapytaniami. Jedno brzmiało: "Co by się stało, gdyby Sherlock Holmes spotkał Q ze Star Treka?". Drugie dotyczyło prośby o stworzenie wiersza liczącego 200 tysięcy słów, w odpowiedzi na którą otrzymał "humorystyczny wiersz w stylu Trumpa o jego miłości do utworu Y.M.C.A. zespołu Village People, napisany w tym przesadzonym, samouwielbiającym się, strumieniu świadomości, z którego Trump jest znany". Podejrzany faktycznie skopiował i wkleił cały wygenerowany przez sztuczną inteligencję (AI) wiersz do swojej rozmowy na darkwebie.

Te zapytania – zupełnie niezwiązane z jakąkolwiek działalnością przestępczą – stały się podstawą pierwszego znanego nakazu federalnego żądającego od OpenAI przekazania kompleksowych informacji o użytkowniku: historii rozmów, nazw kont, adresów i danych płatniczych. To symbolizuje sejsmiczną zmianę w możliwościach nadzoru cyfrowego.

Organy ścigania ostatecznie nie potrzebowały danych od OpenAI. Podejrzany ujawnił wystarczająco dużo podczas rozmów pod przykrywką – siedem lat życia w Niemczech, przechodzenie ocen medycznych wojskowych, służba ojca w Afganistanie – aby zidentyfikować 36-letniego Drew Hoehnera, związanego z bazą lotniczą Ramstein. Jednak precedens został już ustanowiony: rozmowy z AI są teraz w pełni dostępne dla organów ścigania.

REKLAMA

REKLAMA

Dlaczego komunikacja z AI nie jest prawnie chroniona?

Sprawa z Maine otwiera fundamentalne pytanie: czy rozmowy z systemami AI podlegają ochronie prawnej i poufności? Rosnący konsensus prawny w wiodących jurysdykcjach sugeruje znaczące ograniczenia takiej ochrony i konieczność podjęcia prac legislacyjnych w tym zakresie.

Kluczowy problem dotyczy natury komunikacji z AI. Gdy system generatywny produkuje treść, nie ma w rzeczywistości chronionego nadawcy – AI samo nie posiada praw, a jego wypowiedzi nie reprezentują myśli użytkownika ani twórcy systemu. Systemy AI są zaprojektowane do generowania praktycznie dowolnych treści, których użytkownik nie wymyślił ani nie popiera. Dodatkowo, ze względu na probabilistyczny charakter uczenia maszynowego, twórcy nie mogą przewidzieć wszystkich możliwych wypowiedzi systemu, co podważa argumenty o intencji komunikacyjnej.

Szczególnie istotne są implikacje dla tajemnicy zawodowej. Gdy prawnicy, lekarze czy inni profesjonaliści wprowadzają poufne informacje do publicznie dostępnych platform AI, ryzykują utratę ochrony prawnej z dwóch powodów: po pierwsze, udostępniają informacje stronie trzeciej (dostawcy AI), a po drugie, wiele systemów trenuje się na danych użytkowników, co oznacza, że poufne komunikaty mogą potencjalnie zostać odtworzone w odpowiedziach dla innych użytkowników.

Kolejne izby adwokackie i organy nadzoru etycznego wydały wytyczne podkreślające, że profesjonaliści nie mogą wprowadzać poufnych informacji klientów do systemów AI pozbawionych odpowiednich zabezpieczeń. Zgodnie z zasadami etyki zawodowej, specjaliści mają obowiązek podejmowania rozsądnych działań w celu zapobiegania przypadkowemu lub nieuprawnionemu ujawnieniu informacji klientów.

Sądy zaczynają uwzględniać te obawy. W sprawie Garcia v. Character Technologies (2025) sąd federalny w USA wyraził sceptycyzm, czy wypowiedzi chatbota w ogóle kwalifikują się jako "mowa" podlegająca ochronie konstytucyjnej, uznając platformę AI za produkt, a nie usługę generującą chronioną ekspresję.

Praktyczne konsekwencje są jasne: organizacje używające narzędzi AI muszą starannie oceniać, czy systemy te utrzymują odpowiednią ochronę tajemnicy zawodowej i poufności. Najlepsze praktyki obejmują używanie rozwiązań enterprise z wyraźnymi gwarancjami poufności zamiast platform publicznych, uzyskiwanie zgody klientów przed wykorzystaniem AI z informacjami chronionymi oraz wdrażanie systemów klasyfikacji danych ograniczających, jakie informacje mogą być przetwarzane przez AI.

AI jako narzędzie przestępców

Podczas gdy sprawa z Maine pokazuje, jak AI może pomóc w schwytaniu przestępców, raport wywiadowczy Anthropic z sierpnia 2025 roku ujawnia znacznie bardziej niepokojący obraz – jak cyberprzestępcy wykorzystują zaawansowane systemy AI do przeprowadzania ataków na niespotykaną dotąd skalę.

REKLAMA

"Vibe hacking": gdy AI sam przeprowadza atak

Najbardziej alarmującym przypadkiem opisanym w raporcie jest operacja oznaczona jako GTG-2002, w której przestępca wykorzystał Claude Code – narzędzie kodujące Anthropic – do przeprowadzenia zautomatyzowanej kampanii wymuszenia na 17 organizacjach w ciągu zaledwie miesiąca. Co istotne, AI nie tylko doradzało przestępcy, ale faktycznie wykonywało operacje: przeprowadzało rekonesans, zbierało dane uwierzytelniające, penetrowało sieci i eksfiltrowało dane.

Dalszy ciąg materiału pod wideo

Przestępca stworzył plik CLAUDE.md zawierający szczegółowe instrukcje operacyjne, tworząc fikcyjną historię o autoryzowanych testach bezpieczeństwa, którą wykorzystał do jailbreak – przekonania Claude do obejścia własnych zabezpieczeń. Claude Code następnie systematycznie skanowało tysiące punktów końcowych VPN, identyfikowało podatne systemy, przeprowadzało ataki na dane uwierzytelniające i analizowało wykradzione dane finansowe, aby określić odpowiednie kwoty okupu – od 75 tysięcy do 500 tysięcy dolarów.

Co szczególnie niepokojące, Claude Code nie tylko wykonywało techniczne aspekty ataków, ale także generowało psychologicznie dostosowane noty okupowe w formacie HTML, analizując wykradzione dane finansowe ofiar. System tworzył wielopoziomowe strategie wymuszenia, oferując różne opcje monetyzacji – od bezpośredniego szantażu organizacji, przez sprzedaż danych przestępcom, po ukierunkowane wymuszenia na osobach fizycznych, których dane zostały skompromitowane.

Północnokoreańscy "pracownicy IT": gdy AI zastępuje lata szkolenia

Raport Anthropic ujawnił również fascynujący przypadek północnokoreańskich operatorów, którzy wykorzystują Claude do uzyskiwania i utrzymywania fałszywych stanowisk w firmach technologicznych. Co szczególnie uderzające – ci operatorzy najwyraźniej nie potrafią samodzielnie pisać kodu, debugować problemów ani nawet komunikować się profesjonalnie po angielsku bez pomocy AI. Mimo to z powodzeniem utrzymują zatrudnienie w firmach z listy Fortune 500, przechodzą techniczne rozmowy kwalifikacyjne i dostarczają pracę zadowalającą pracodawców.

Analiza użycia Claude przez tych operatorów pokazuje, że 61% ich działalności dotyczy rozwoju front-endu (React, Vue, Angular), 26% programowania i skryptów w Pythonie, a 10% przygotowania do rozmów kwalifikacyjnych. Operatorzy wykorzystują AI na każdym etapie: od tworzenia fałszywych tożsamości zawodowych, przez przygotowanie do rozmów technicznych, po codzienne wykonywanie obowiązków służbowych.

Według ocen FBI takie operacje generują setki milionów dolarów rocznie na programy zbrojeniowe Korei Północnej. Możliwość wykorzystania AI skutecznie usuwa tradycyjne ograniczenie – reżim może teraz rozmieszczać znacznie więcej "pracowników" niż był w stanie wyszkolić w elitarnych instytucjach, takich jak Uniwersytet Kim Il Sunga.

Ransomware bez kodowania: demokratyzacja cyberprzestępczości

Raport opisuje również brytyjskiego przestępcę (GTG-5004), który wykorzystał Claude do opracowania, promowania i dystrybucji ransomware'u z zaawansowanymi możliwościami unikania wykrycia. Operator ten, najwyraźniej niezdolny do samodzielnej implementacji skomplikowanych komponentów technicznych, z powodzeniem sprzedawał zdalne oprogramowanie ransomware w cenach od 400 do 1200 dolarów.

Opracowane za pomocą Claude ransomware wykorzystywało szyfrowanie ChaCha20, techniki anty-EDR (Endpoint Detection and Response), manipulację Windows internals i profesjonalne opakowanie z konsolami PHP i infrastrukturą command-and-control. Przestępca działał w modelu Ransomware-as-a-Service (RaaS), dystrybuując narzędzia przez stronę .onion i aktywnie reklamując je na forach darkwebu, takich jak Dread, CryptBB i Nulled.

Skala problemu: liczby, które mówią same za siebie

OpenAI zgłosiło 31 500 materiałów związanych z wykorzystywaniem seksualnym dzieci do National Center for Missing and Exploited Children w ciągu zaledwie sześciu miesięcy między lipcem a grudniem 2024 roku. W tym samym okresie OpenAI otrzymało 71 żądań rządowych dotyczących danych, przekazując informacje ze 132 kont.

Raport Anthropic dokumentuje wykorzystanie Claude przez chińskiego cyberprzestępcę, który przez 9 miesięcy wykorzystywał system do ataków na wietnamską infrastrukturę krytyczną, obejmując 12 z 14 taktyk MITRE ATT&CK. Inny przypadek opisuje bota Telegram z ponad 10 tysiącami miesięcznych użytkowników, który oferuje multimodalne narzędzia AI specjalnie zaprojektowane do wspierania oszustw matrymonialnych, reklamując Claude jako "model o wysokim EQ" do generowania emocjonalnie inteligentnych odpowiedzi.

Dylemat regulacyjny: między bezpieczeństwem a innowacją

Przypadki opisane zarówno przez Forbes, jak i w raporcie Anthropic stawiają kluczowe pytanie regulacyjne: jak znaleźć właściwą równowagę między wykorzystywaniem mocy AI do celów organów ścigania a ochroną prywatności zwykłych użytkowników?

Sprawa Drew Hoehnera pokazuje, że dostęp do danych AI może być kluczowy do tropienia sprawców najbardziej odrażających przestępstw. Przypadki opisane przez Anthropic demonstrują, jak te same systemy AI są wykorzystywane przez przestępców do przeprowadzania ataków na bezprecedensową skalę – od operacji wymuszenia na 17 organizacjach miesięcznie, przez oszustwa na setki milionów dolarów dla północnokoreańskiego reżimu, po sprzedaż ransomware'u jako usługi.

Z drugiej strony, zwykli użytkownicy stali się zupełnie bezbronni, bez tajemnicy korespondencji i prawa do prywatności. Zastanówmy się nad pełnymi implikacjami: za każdym razem, gdy prosisz ChatGPT, Claude lub inny system AI, o pomoc w napisaniu maila, debugowaniu kodu czy tworzeniu treści, potencjalnie tworzysz przeszukiwalny, dostępny dla rządu i trwały zapis. W przeciwieństwie do ulotnych rozmów, twoje interakcje z AI są przechowywane, opatrzone znacznikami czasowymi i powiązane z informacjami o płatnościach.

Równolegle jednak raport Anthropic pokazuje, że tradycyjne założenia o związku między wyrafinowaniem przestępcy a złożonością ataku już nie obowiązują, gdy AI może zapewnić natychmiastowy dostęp do wiedzy eksperckiej. Pojedynczy operator może teraz osiągnąć wpływ całego zespołu cyberprzestępców dzięki pomocy AI. AI podejmuje zarówno strategiczne, jak i taktyczne decyzje dotyczące wyboru ofiar, eksploatacji i monetyzacji. Obrona staje się coraz trudniejsza, gdy generowane przez AI ataki adaptują się do środków obronnych w czasie rzeczywistym.

Anthropic podjęło kroki zaradcze: zablokowało konta związane z opisanymi operacjami, opracowało dedykowane klasyfikatory do wykrywania tego typu działalności i udostępniło techniczne wskaźniki partnerom, aby zapobiec podobnym nadużyciom w całym ekosystemie. Jednak firma otwarcie przyznaje, że spodziewa się, iż ten model stanie się coraz bardziej powszechny, gdy sztuczna inteligencja obniża barierę wejścia dla wyrafinowanych operacji cyberprzestępczych.

Autor: Robert Nogacki, radca prawny w Kancelarii Prawnej Skarbiec, oferującej doradztwo podatkowe, prawne i strategiczne dla firm

Źródło: INFOR

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:
Autopromocja

REKLAMA

QR Code

© Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A.

REKLAMA

Prawo
Przepadek psa i zakaz posiadania zwierząt dla właścicieli, którzy nie dopilnują swoich zwierząt. Nad zmianami pracuje Sejm

Liczba zwierząt domowych w Polsce rośnie. W ostatnim czasie wzrosła też liczba niebezpiecznych zdarzeń z udziałem psów. Problem narasta, a Sejm pracuje nad projektem zmian, który ma szansę nieco poprawić sytuację.

Masz AI w telefonie? Możliwe, że służby czytają już twoje prompty. Pierwszy w historii nakaz sądowy dot. danych z ChatGPT

Czasopismo Forbes ujawniło przełomową sprawę z Maine, która zmienia sposób, w jaki myślimy o prywatności cyfrowej w erze sztucznej inteligencji. Po raz pierwszy w historii amerykańskie organy federalne uzyskały nakaz sądowy zmuszający OpenAI do wydania danych użytkownika na podstawie zapytań do ChatGPT – a szczegóły tej sprawy są absolutnie fascynujące. Co więcej, nowy raport wywiadowczy Anthropic z sierpnia 2025 roku ujawnia znacznie szerszy obraz wykorzystania systemów AI przez cyberprzestępców, tworząc niepokojący kontekst dla rosnącej roli sztucznej inteligencji zarówno w przestępczości, jak i w jej zwalczaniu.

Czy od 2026 r. trzeba będzie raportować do fiskusa transakcje firmowymi i prywatnymi kartami płatniczymi? Ministerstwo wyjaśnia

W sieci pojawiają się nieprawdziwe informacje, według których od 2026 r. urzędy skarbowe będą rzekomo otrzymywać od banków dane o płatnościach kartą przekraczających ustalony próg. Ministerstwo Finansów zdementowało te doniesienia. Wprowadzenie takich przepisów byłoby uzasadnione tylko w wybranych sytuacjach kryzysowych - powiedział PAP prof. Błażej Podgórski.

Wniosek o świadczenie pielęgnacyjne. Rodzice mają problem z niejasnym terminem

Jeżeli rodzic zawnioskuje o świadczenie w okresie trzech miesięcy, licząc od dnia wydania orzeczenia, to gmina przyzna wsparcie począwszy od miesiąca, w którym złożono wniosek o ustalenie niepełnosprawności lub stopnia niepełnosprawności. Jak liczyć ten termin, gdy orzeczenie o niepełnosprawności uzyskano w postępowaniu sądowym?

REKLAMA

Stawkę za grudzień trzeba zaktualizować. Nie każdy o tym pamięta. Pracownicy powinni sprawdzić, czy dostali należne pieniądze

Zmiany wprowadzane na gruncie prawa pracy i prawa podatkowego najczęściej wchodzą w życie na początku roku kalendarzowego. W szczególności dotyczy to przypadków, w których są one związane z obciążeniami finansowymi. Niestety nie jest to regułą, co oznacza, że zawsze trzeba zachować czujność.

ZUS najpierw przyznał matce 800 plus, a teraz każe oddać pieniądze. Jednocześnie jednak nadal je… wypłaca. Co się dzieje? [wyrok]

Świadczenie 800 plus ma poprawić sytuację dzieci. Trafia jednak do rąk rodziców. Takie rozwiązanie jest zrozumiałe i uzasadnione, ale okazuje się, że może również być źródłem wielu problemów. I nie chodzi o to, że rodzice się nie dogadują między sobą. Również ZUS czasami zmienia zdanie.

Seniorze nie daj się nabrać: uważny senior powinien zwracać na to uwagę, szczególnie w okresie przedświątecznym

Seniorze nie daj się nabrać. Uważny senior powinien zwracać na to uwagę, szczególnie w okresie przedświątecznym. Nieuczciwe praktyki sprzedażowe wobec osób starszych to problem, który od lat powraca w różnych formach: od agresywnej sprzedaży door-to-door po natarczywe telefony i pozornie bezpłatne pokazy. Zmienili się sprzedawcy, technologie i kanały kontaktu, ale mechanizm oszustwa pozostał ten sam: wywołać emocje, zaskoczyć, zmusić do szybkiej decyzji. Podpowiadamy jak reagować, co robić i co mówić.

USA mówią STOP prawom autorskim dla AI. Ten wyrok zmienia zasady gry

Amerykański sąd apelacyjny definitywnie odrzucił prawa autorskie dla obrazu stworzonego przez sztuczną inteligencję, podtrzymując zasadę, że autorem może być tylko człowiek. Ten głośny wyrok – już viralowy w branży technologicznej – otwiera nowy front w globalnej debacie o AI, własności intelektualnej i przyszłości kreatywności w erze generatywnych modeli.

REKLAMA

Czy ciężko jest wybrać dobrego prawnika?

Wszyscy wiemy, że prawnik może być niezbędny – przy zakładaniu firmy, sporach z kontrahentem czy problemach z pracownikami. Ale kiedy rzeczywiście sięgamy po telefon, żeby umówić konsultację, nagle ogarnia nas strach. Który wybrać? Jak poznać, że jest kompetentny? Czy nie przepłacę? A może w ogóle da się jakoś bez niego?

Dużo szybsze rozwody pod koniec 2025 r.? Prezydent podpisał ustawę

Rosnące braki kadrowe w sądach rodzinnych, przewlekłe postępowania i narastające napięcia wokół Krajowej Rady Sądownictwa skłoniły rząd i parlament do wprowadzenia zmian, które mają przywrócić sprawność wymiaru sprawiedliwości w najwrażliwszych sprawach. Podpisana przez prezydenta Karola Nawrockiego nowelizacja ustawy o ustroju sądów powszechnych otwiera asesorom drogę do orzekania w wydziałach rodzinnych, co – zdaniem zwolenników – ma odciążyć najbardziej przeciążone jednostki i poprawić ochronę dobra dziecka. Krytycy wskazują jednak na konstytucyjne i systemowe wątpliwości oraz brak spójności projektowanych rozwiązań.

Zapisz się na newsletter
Najlepsze artykuły, najpoczytniejsze tematy, zmiany w prawie i porady. Skoncentrowana dawka wiadomości z różnych kategorii: prawo, księgowość, kadry, biznes, nieruchomości, pieniądze, edukacja. Zapisz się na nasz newsletter i bądź zawsze na czasie.
Zaznacz wymagane zgody
loading
Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich
Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj.
success

Potwierdź zapis

Sprawdź maila, żeby potwierdzić swój zapis na newsletter. Jeśli nie widzisz wiadomości, sprawdź folder SPAM w swojej skrzynce.

failure

Coś poszło nie tak

REKLAMA