REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

Masz AI w telefonie? Możliwe, że służby czytają twoje prompty. Pierwszy w historii nakaz sądowy dot. danych z ChatGPT

Kancelaria Prawna Skarbiec
Kancelaria Prawna Skarbiec świadczy doradztwo prawne z zakresu prawa podatkowego, gospodarczego, cywilnego i karnego.
sztuczna inteligencja, AI, prawo, sąd
Masz AI w telefonie? Możliwe, że służby czytają już twoje prompty. Pierwszy w historii nakaz sądowy dot. danych z ChatGPT
Shutterstock

REKLAMA

REKLAMA

Czasopismo Forbes ujawniło przełomową sprawę z Maine, która zmienia sposób, w jaki myślimy o prywatności cyfrowej w erze sztucznej inteligencji. Po raz pierwszy w historii amerykańskie organy federalne uzyskały nakaz sądowy zmuszający OpenAI do wydania danych użytkownika na podstawie zapytań do ChatGPT – a szczegóły tej sprawy są absolutnie fascynujące. Co więcej, nowy raport wywiadowczy Anthropic z sierpnia 2025 roku ujawnia znacznie szerszy obraz wykorzystania systemów AI przez cyberprzestępców, tworząc niepokojący kontekst dla rosnącej roli sztucznej inteligencji zarówno w przestępczości, jak i w jej zwalczaniu.

rozwiń >

Sprawa z Maine: niewinne pytanie, poważne konsekwencje

Sprawa jest niezwykła z kilku powodów. Śledczy z Homeland Security tropili administratora sieci darkwebowej zajmującej się wykorzystywaniem seksualnym dzieci, która działała od 2019 roku i zarządzała 15 różnymi stronami o łącznej liczbie ponad 300 tysięcy użytkowników. Po latach bezowocnych poszukiwań przełom nastąpił w najmniej oczekiwanym miejscu – w przypadkowej rozmowie o Sherlocku Holmesie i Star Treku.

Podczas komunikacji prowadzonej pod przykrywką, podejrzany wspomniał o korzystaniu z ChatGPT i podzielił się dwoma pozornie niewinnymi zapytaniami. Jedno brzmiało: "Co by się stało, gdyby Sherlock Holmes spotkał Q ze Star Treka?". Drugie dotyczyło prośby o stworzenie wiersza liczącego 200 tysięcy słów, w odpowiedzi na którą otrzymał "humorystyczny wiersz w stylu Trumpa o jego miłości do utworu Y.M.C.A. zespołu Village People, napisany w tym przesadzonym, samouwielbiającym się, strumieniu świadomości, z którego Trump jest znany". Podejrzany faktycznie skopiował i wkleił cały wygenerowany przez sztuczną inteligencję (AI) wiersz do swojej rozmowy na darkwebie.

Te zapytania – zupełnie niezwiązane z jakąkolwiek działalnością przestępczą – stały się podstawą pierwszego znanego nakazu federalnego żądającego od OpenAI przekazania kompleksowych informacji o użytkowniku: historii rozmów, nazw kont, adresów i danych płatniczych. To symbolizuje sejsmiczną zmianę w możliwościach nadzoru cyfrowego.

Organy ścigania ostatecznie nie potrzebowały danych od OpenAI. Podejrzany ujawnił wystarczająco dużo podczas rozmów pod przykrywką – siedem lat życia w Niemczech, przechodzenie ocen medycznych wojskowych, służba ojca w Afganistanie – aby zidentyfikować 36-letniego Drew Hoehnera, związanego z bazą lotniczą Ramstein. Jednak precedens został już ustanowiony: rozmowy z AI są teraz w pełni dostępne dla organów ścigania.

REKLAMA

REKLAMA

Dlaczego komunikacja z AI nie jest prawnie chroniona?

Sprawa z Maine otwiera fundamentalne pytanie: czy rozmowy z systemami AI podlegają ochronie prawnej i poufności? Rosnący konsensus prawny w wiodących jurysdykcjach sugeruje znaczące ograniczenia takiej ochrony i konieczność podjęcia prac legislacyjnych w tym zakresie.

Kluczowy problem dotyczy natury komunikacji z AI. Gdy system generatywny produkuje treść, nie ma w rzeczywistości chronionego nadawcy – AI samo nie posiada praw, a jego wypowiedzi nie reprezentują myśli użytkownika ani twórcy systemu. Systemy AI są zaprojektowane do generowania praktycznie dowolnych treści, których użytkownik nie wymyślił ani nie popiera. Dodatkowo, ze względu na probabilistyczny charakter uczenia maszynowego, twórcy nie mogą przewidzieć wszystkich możliwych wypowiedzi systemu, co podważa argumenty o intencji komunikacyjnej.

Szczególnie istotne są implikacje dla tajemnicy zawodowej. Gdy prawnicy, lekarze czy inni profesjonaliści wprowadzają poufne informacje do publicznie dostępnych platform AI, ryzykują utratę ochrony prawnej z dwóch powodów: po pierwsze, udostępniają informacje stronie trzeciej (dostawcy AI), a po drugie, wiele systemów trenuje się na danych użytkowników, co oznacza, że poufne komunikaty mogą potencjalnie zostać odtworzone w odpowiedziach dla innych użytkowników.

Kolejne izby adwokackie i organy nadzoru etycznego wydały wytyczne podkreślające, że profesjonaliści nie mogą wprowadzać poufnych informacji klientów do systemów AI pozbawionych odpowiednich zabezpieczeń. Zgodnie z zasadami etyki zawodowej, specjaliści mają obowiązek podejmowania rozsądnych działań w celu zapobiegania przypadkowemu lub nieuprawnionemu ujawnieniu informacji klientów.

Sądy zaczynają uwzględniać te obawy. W sprawie Garcia v. Character Technologies (2025) sąd federalny w USA wyraził sceptycyzm, czy wypowiedzi chatbota w ogóle kwalifikują się jako "mowa" podlegająca ochronie konstytucyjnej, uznając platformę AI za produkt, a nie usługę generującą chronioną ekspresję.

Praktyczne konsekwencje są jasne: organizacje używające narzędzi AI muszą starannie oceniać, czy systemy te utrzymują odpowiednią ochronę tajemnicy zawodowej i poufności. Najlepsze praktyki obejmują używanie rozwiązań enterprise z wyraźnymi gwarancjami poufności zamiast platform publicznych, uzyskiwanie zgody klientów przed wykorzystaniem AI z informacjami chronionymi oraz wdrażanie systemów klasyfikacji danych ograniczających, jakie informacje mogą być przetwarzane przez AI.

AI jako narzędzie przestępców

Podczas gdy sprawa z Maine pokazuje, jak AI może pomóc w schwytaniu przestępców, raport wywiadowczy Anthropic z sierpnia 2025 roku ujawnia znacznie bardziej niepokojący obraz – jak cyberprzestępcy wykorzystują zaawansowane systemy AI do przeprowadzania ataków na niespotykaną dotąd skalę.

REKLAMA

"Vibe hacking": gdy AI sam przeprowadza atak

Najbardziej alarmującym przypadkiem opisanym w raporcie jest operacja oznaczona jako GTG-2002, w której przestępca wykorzystał Claude Code – narzędzie kodujące Anthropic – do przeprowadzenia zautomatyzowanej kampanii wymuszenia na 17 organizacjach w ciągu zaledwie miesiąca. Co istotne, AI nie tylko doradzało przestępcy, ale faktycznie wykonywało operacje: przeprowadzało rekonesans, zbierało dane uwierzytelniające, penetrowało sieci i eksfiltrowało dane.

Dalszy ciąg materiału pod wideo

Przestępca stworzył plik CLAUDE.md zawierający szczegółowe instrukcje operacyjne, tworząc fikcyjną historię o autoryzowanych testach bezpieczeństwa, którą wykorzystał do jailbreak – przekonania Claude do obejścia własnych zabezpieczeń. Claude Code następnie systematycznie skanowało tysiące punktów końcowych VPN, identyfikowało podatne systemy, przeprowadzało ataki na dane uwierzytelniające i analizowało wykradzione dane finansowe, aby określić odpowiednie kwoty okupu – od 75 tysięcy do 500 tysięcy dolarów.

Co szczególnie niepokojące, Claude Code nie tylko wykonywało techniczne aspekty ataków, ale także generowało psychologicznie dostosowane noty okupowe w formacie HTML, analizując wykradzione dane finansowe ofiar. System tworzył wielopoziomowe strategie wymuszenia, oferując różne opcje monetyzacji – od bezpośredniego szantażu organizacji, przez sprzedaż danych przestępcom, po ukierunkowane wymuszenia na osobach fizycznych, których dane zostały skompromitowane.

Północnokoreańscy "pracownicy IT": gdy AI zastępuje lata szkolenia

Raport Anthropic ujawnił również fascynujący przypadek północnokoreańskich operatorów, którzy wykorzystują Claude do uzyskiwania i utrzymywania fałszywych stanowisk w firmach technologicznych. Co szczególnie uderzające – ci operatorzy najwyraźniej nie potrafią samodzielnie pisać kodu, debugować problemów ani nawet komunikować się profesjonalnie po angielsku bez pomocy AI. Mimo to z powodzeniem utrzymują zatrudnienie w firmach z listy Fortune 500, przechodzą techniczne rozmowy kwalifikacyjne i dostarczają pracę zadowalającą pracodawców.

Analiza użycia Claude przez tych operatorów pokazuje, że 61% ich działalności dotyczy rozwoju front-endu (React, Vue, Angular), 26% programowania i skryptów w Pythonie, a 10% przygotowania do rozmów kwalifikacyjnych. Operatorzy wykorzystują AI na każdym etapie: od tworzenia fałszywych tożsamości zawodowych, przez przygotowanie do rozmów technicznych, po codzienne wykonywanie obowiązków służbowych.

Według ocen FBI takie operacje generują setki milionów dolarów rocznie na programy zbrojeniowe Korei Północnej. Możliwość wykorzystania AI skutecznie usuwa tradycyjne ograniczenie – reżim może teraz rozmieszczać znacznie więcej "pracowników" niż był w stanie wyszkolić w elitarnych instytucjach, takich jak Uniwersytet Kim Il Sunga.

Ransomware bez kodowania: demokratyzacja cyberprzestępczości

Raport opisuje również brytyjskiego przestępcę (GTG-5004), który wykorzystał Claude do opracowania, promowania i dystrybucji ransomware'u z zaawansowanymi możliwościami unikania wykrycia. Operator ten, najwyraźniej niezdolny do samodzielnej implementacji skomplikowanych komponentów technicznych, z powodzeniem sprzedawał zdalne oprogramowanie ransomware w cenach od 400 do 1200 dolarów.

Opracowane za pomocą Claude ransomware wykorzystywało szyfrowanie ChaCha20, techniki anty-EDR (Endpoint Detection and Response), manipulację Windows internals i profesjonalne opakowanie z konsolami PHP i infrastrukturą command-and-control. Przestępca działał w modelu Ransomware-as-a-Service (RaaS), dystrybuując narzędzia przez stronę .onion i aktywnie reklamując je na forach darkwebu, takich jak Dread, CryptBB i Nulled.

Skala problemu: liczby, które mówią same za siebie

OpenAI zgłosiło 31 500 materiałów związanych z wykorzystywaniem seksualnym dzieci do National Center for Missing and Exploited Children w ciągu zaledwie sześciu miesięcy między lipcem a grudniem 2024 roku. W tym samym okresie OpenAI otrzymało 71 żądań rządowych dotyczących danych, przekazując informacje ze 132 kont.

Raport Anthropic dokumentuje wykorzystanie Claude przez chińskiego cyberprzestępcę, który przez 9 miesięcy wykorzystywał system do ataków na wietnamską infrastrukturę krytyczną, obejmując 12 z 14 taktyk MITRE ATT&CK. Inny przypadek opisuje bota Telegram z ponad 10 tysiącami miesięcznych użytkowników, który oferuje multimodalne narzędzia AI specjalnie zaprojektowane do wspierania oszustw matrymonialnych, reklamując Claude jako "model o wysokim EQ" do generowania emocjonalnie inteligentnych odpowiedzi.

Dylemat regulacyjny: między bezpieczeństwem a innowacją

Przypadki opisane zarówno przez Forbes, jak i w raporcie Anthropic stawiają kluczowe pytanie regulacyjne: jak znaleźć właściwą równowagę między wykorzystywaniem mocy AI do celów organów ścigania a ochroną prywatności zwykłych użytkowników?

Sprawa Drew Hoehnera pokazuje, że dostęp do danych AI może być kluczowy do tropienia sprawców najbardziej odrażających przestępstw. Przypadki opisane przez Anthropic demonstrują, jak te same systemy AI są wykorzystywane przez przestępców do przeprowadzania ataków na bezprecedensową skalę – od operacji wymuszenia na 17 organizacjach miesięcznie, przez oszustwa na setki milionów dolarów dla północnokoreańskiego reżimu, po sprzedaż ransomware'u jako usługi.

Z drugiej strony, zwykli użytkownicy stali się zupełnie bezbronni, bez tajemnicy korespondencji i prawa do prywatności. Zastanówmy się nad pełnymi implikacjami: za każdym razem, gdy prosisz ChatGPT, Claude lub inny system AI, o pomoc w napisaniu maila, debugowaniu kodu czy tworzeniu treści, potencjalnie tworzysz przeszukiwalny, dostępny dla rządu i trwały zapis. W przeciwieństwie do ulotnych rozmów, twoje interakcje z AI są przechowywane, opatrzone znacznikami czasowymi i powiązane z informacjami o płatnościach.

Równolegle jednak raport Anthropic pokazuje, że tradycyjne założenia o związku między wyrafinowaniem przestępcy a złożonością ataku już nie obowiązują, gdy AI może zapewnić natychmiastowy dostęp do wiedzy eksperckiej. Pojedynczy operator może teraz osiągnąć wpływ całego zespołu cyberprzestępców dzięki pomocy AI. AI podejmuje zarówno strategiczne, jak i taktyczne decyzje dotyczące wyboru ofiar, eksploatacji i monetyzacji. Obrona staje się coraz trudniejsza, gdy generowane przez AI ataki adaptują się do środków obronnych w czasie rzeczywistym.

Anthropic podjęło kroki zaradcze: zablokowało konta związane z opisanymi operacjami, opracowało dedykowane klasyfikatory do wykrywania tego typu działalności i udostępniło techniczne wskaźniki partnerom, aby zapobiec podobnym nadużyciom w całym ekosystemie. Jednak firma otwarcie przyznaje, że spodziewa się, iż ten model stanie się coraz bardziej powszechny, gdy sztuczna inteligencja obniża barierę wejścia dla wyrafinowanych operacji cyberprzestępczych.

Autor: Robert Nogacki, radca prawny w Kancelarii Prawnej Skarbiec, oferującej doradztwo podatkowe, prawne i strategiczne dla firm

Źródło: INFOR

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:
Autopromocja

REKLAMA

QR Code

© Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A.

REKLAMA

Prawo
Zmiany w stażu pracy od 2026 r. ZUS wyda zaświadczenia do „stażowego” ale trzeba złożyć wniosek USP albo US-7 (za okres ubezpieczenia sprzed 1999 r.)

Od 2026 roku do stażu pracy będzie można doliczyć także inne aktywności zawodowe niż praca na etacie, a ich potwierdzaniem zajmie się ZUS. Nowe zasady od 1 stycznia obejmą sektor finansów publicznych, a od 1 maja – pozostałych pracodawców (prywatnych).

Fajerwerki, petardy a prawo. W Polsce dozwolone tylko 2 dni w roku - w inne dni kara do 5 tys. zł. A jak jest innych państwach Europy? Jak bezpiecznie stosować sztuczne ognie?

W Polsce można używać fajerwerków w miejscach publicznych jedynie 31 grudnia i 1 stycznia – poinformowała 30 grudnia 2025 r. Komenda Stołeczna Policji. Dodatkowo niektóre samorządy w Polsce lokalnie zaostrzają przepisy. A jak jest innych państwach Europy? Policja radzi jak bezpiecznie stosować fajerwerki.

Ustawa o statusie osoby najbliższej: zwolnienie z podatku od spadków, wspólne rozliczenie PIT, dziedziczenie i dostęp do dokumentacji medycznej partnera. Co zrobi Prezydent Nawrocki?

W dniu 30 grudnia 2025 r. Rada Ministrów przyjęła i skierowała do Sejmu projekt ustawy o statusie osoby najbliższej w związku i umowie o wspólnym pożyciu, a także drugi projekt: ustawy Przepisy wprowadzające ustawę o statusie osoby najbliższej w związku i umowie o wspólnym pożyciu. Osoby żyjące w związkach nieformalnych (partnerzy, konkubenci) będą mogły zawrzeć umowę cywilnoprawną, dzięki której zyskają możliwość kształtowania wzajemnych praw i obowiązków w sferze majątkowej, rodzinnej i osobistej. Szef gabinetu Prezydenta RP Paweł Szefernaker powiedział tego samego dnia, że przyjęty przez rząd projekt ustawy o statusie osoby najbliższej przenosi przywileje małżeńskie na związki partnerskie - nie ma na to zgody Prezydenta Nawrockiego.

Poinformuj kandydata przed zatrudnieniem, ile zarobi. I nie chodzi wcale o widełki wynagrodzenia. Z przepisów wynikają inne zasady

W grudniu weszły w życie przepisy zmieniające nieco zasady prowadzenia rekrutacji. O czym trzeba poinformować kandydata przed zatrudnieniem? Powszechnie mówi się o widełkach proponowanego wynagrodzenia, jednak w rzeczywistości przepis brzmi inaczej.

REKLAMA

Co z tymi ogłoszeniami o pracę? Jak szukać pracownika zgodnie z przepisami i nie poddać się naciąganym doniesieniom o zmianach?

Czy proces poszukiwania pracowników uległ drastycznym zmianom? Wielu pracodawców może zadawać sobie to pytanie, bo jak wynika z informacji udostępnianych w przestrzeni publicznej, w rekrutacji wprowadzono więc rewolucyjne zmiany, a PIP tylko czeka na to, by przyłapać pracodawcę na błędzie. A jak jest naprawdę?

Skazanie zatarte, a broni i tak nie będzie. Przełomowy wyrok NSA uderza w żołnierza i kolekcjonerów

Przełomowe orzeczenie Naczelnego Sądu Administracyjnego wstrząsnęło środowiskiem strzeleckim. Żołnierz zawodowy, mimo zatarcia skazania, nie otrzymał pozwolenia na broń kolekcjonerską. Sąd uznał, że dawne przewinienia mają znaczenie dla bezpieczeństwa, nawet gdy w świetle prawa jest się "czystym". To ostrzeżenie dla wszystkich: formalna niekaralność nie gwarantuje już sukcesu.

W 2026 r. łatwiej będzie uzyskać zasiłek opiekuńczy. Rząd zaakceptował przepisy

W dniu 30 grudnia 2025 r. Rada Ministrów przyjęła projekt ustawy zakładający m.in. wprowadzenie możliwości przesyłania przez płatników składek i biura rachunkowe wniosków o zasiłek opiekuńczy do Zakładu Ubezpieczeń Społecznych w postaci elektronicznej – poinformowała kancelaria premiera.

Projekt ustawy o statusie osoby najbliższej w związku przyjęty przez rząd. Kiedy ustawa może wejść w życie?

Dnia 30 grudnia 2025 r. projekt ustawy o statusie osoby najbliższej w związku został przyjęty przez rząd. Co zyskają osoby żyjące w nieformalnych związkach? Czy będzie możliwa adopcja dzieci? Kiedy ustawa może wejść w życie?

REKLAMA

Jak przedłużyć sobie staż pracy krok po kroku w 2026 roku. Kto skorzysta najbardziej na nowych przepisach?

Już 1 stycznia 2026 r. zaczną obowiązywać przepisy Kodeksu pracy, które pozwolą zaliczać do stażu pracy m.in. okres prowadzenia działalności gospodarczej oraz wykonywania umów zlecenia. Wpłynie to na wymiar urlopu, dodatki stażowe i prawo do odpraw. O czym powinny pamiętać osoby, które chcą zyskać na nowych przepisach?

Urlop i długie weekendy w 2026 roku. Jak zyskać więcej dni wolnych bez zwiększania puli urlopu?

Kalendarz na 2026 rok daje realną możliwość zaplanowania kilku dłuższych okresów odpoczynku bez konieczności brania długich, ciągłych urlopów. W praktyce oznacza to mniejsze obciążenie organizacyjne dla pracodawców i lepszy komfort dla pracowników.

Zapisz się na newsletter
Najlepsze artykuły, najpoczytniejsze tematy, zmiany w prawie i porady. Skoncentrowana dawka wiadomości z różnych kategorii: prawo, księgowość, kadry, biznes, nieruchomości, pieniądze, edukacja. Zapisz się na nasz newsletter i bądź zawsze na czasie.
Zaznacz wymagane zgody
loading
Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich
Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj.
success

Potwierdź zapis

Sprawdź maila, żeby potwierdzić swój zapis na newsletter. Jeśli nie widzisz wiadomości, sprawdź folder SPAM w swojej skrzynce.

failure

Coś poszło nie tak

REKLAMA