10 zasad dobrych praktyk stosowania AI do tworzenia leków. Europejska Agencja Leków i Amerykańska Agencja ds. Żywności i Leków łączą siły

REKLAMA
REKLAMA
W styczniu 2026 roku EMA i FDA wspólnie opublikowały zestaw 10 zasad dobrych praktyk dla wykorzystania sztucznej inteligencji (AI) w całym cyklu rozwoju leków — od projektowania i badań, przez produkcję, aż do monitorowania bezpieczeństwa po dopuszczeniu do obrotu.
- Rośnie rola AI w procesie opracowywania, oceny i monitorowania leków
- 1.Projektowanie zorientowane na człowieka
- 2. Podejście oparte na ryzyku
- 3. Przestrzeganie standardów
- 4. Jasny kontekst użycia
- 5. Ekspertyza multidyscyplinarna
- 6. Zarządzanie danymi i dokumentacją
- 7. Projektowanie i rozwój modeli praktyki
- 8. Ocena wydajności oparta na ryzyku
- 9. Zarządzanie cyklem życia
- 10. Jasne i istotne informacje
- PODSUMOWANIE
Rośnie rola AI w procesie opracowywania, oceny i monitorowania leków
W ostatnich latach znaczenie sztucznej inteligencji (AI) w procesie opracowywania, oceny i monitorowania leków znacząco wzrosło. Technologie AI mają potencjał przyspieszenia badań, poprawy przewidywania skuteczności i bezpieczeństwa leków oraz ograniczenia konieczności przeprowadzania badań na zwierzętach. Jednocześnie ich zastosowanie wiąże się z nowymi wyzwaniami. Modele AI mogą popełniać błędy, być podatne na nieprzewidziane ryzyka lub wykorzystywać dane w sposób nieprzejrzysty. Aby w pełni wykorzystać korzyści AI przy minimalizacji zagrożeń, niezbędne jest ustanowienie jasnych i wspólnych zasad korzystania z tych technologii. W odpowiedzi na te wyzwania Europejska Agencja Leków (EMA) oraz amerykańska Agencja Żywności i Leków (FDA) wspólnie opracowały dziesięć zasad dobrej praktyki w stosowaniu AI w cyklu życia leków. Akt ten ma charakter zasadniczy i ramowy, a nie wiążącego przepisu prawnego - określa ogólne kierunki i wytyczne, które powinny przyświecać producentom leków, wnioskodawcom oraz regulatorom. Zasady te wskazują, w jaki sposób AI powinna być projektowana i wykorzystywana, aby była etyczna, bezpieczna, przejrzysta i oparta na rzetelnych danych.
Dziesięć zasad wskazuje również obszary, w których międzynarodowi regulatorzy, organizacje tworzące standardy oraz inne podmioty współpracujące mogą działać wspólnie, aby promować dobre praktyki w opracowywaniu leków. Do takich obszarów współpracy należą: prowadzenie badań naukowych, tworzenie narzędzi edukacyjnych i zasobów dla uczestników rynku, harmonizacja międzynarodowa oraz wypracowywanie standardów konsensualnych.
Aby ułatwić na początek analizę tych zasad można je pogrupować w trzy logiczne filary. Zasady od 1-3, to fundamenty organizacyjne i ludzie, które skupiają się na interdyscyplinarnej wiedzy zespołów oraz zapewnieniu, że AI pozostaje pod kontrolą człowieka w ramach konkretnych, przewidzianych procesów zarządzania. Zasady 4-7 odnoszą się do jakości technicznej i integralności modelu, dotyczą ,,serca” technologii. Zasady 8-10 to odpowiedzialność i cykl życia, definiują one standardy dokumentacji, jasnej komunikacji z użytkownikiem oraz ciągłego monitorowania modelu po jego wdrożeniu. Poniżej znajduje się szczegółowe zestawienie 10 zasad dobrej praktyki stosowania AI w cyklu życia leków:
REKLAMA
REKLAMA
1.Projektowanie zorientowane na człowieka
Rozwój i wykorzystanie technologii sztucznej inteligencji w cyklu życia leków powinny być zgodne z wartościami etycznymi oraz zorientowane na człowieka. Zasady etyczne przywoływane w dokumentach EMA i FDA nie stanowią autonomicznej konstrukcji normatywnej, lecz zostały zaczerpnięte z wcześniejszych standardów ochrony praw podstawowych i bioetyki, a następnie ujęte w ramy „Trustworthy AI” opracowane przez Grupę Ekspertów Wysokiego Szczebla ds. AI (HLEG). Dokument Assessment List for Trustworthy AI definiuje siedem podstawowych wymogów godnej zaufania sztucznej inteligencji, które stanowią praktyczne narzędzie do implementacji wartości etycznych w systemach AI.
Zasady te zakładają, że system AI powinien wspierać decyzje człowieka, umożliwiać jego interwencję oraz nie podejmować decyzji w sposób autonomiczny, co bezpośrednio wiąże się z przesłanką „zorientowania na człowieka”. Kolejnym wymogiem jest odporność techniczna AI na błędy, awarie i ataki, co zapewnia bezpieczeństwo i przewidywalność działania systemu. W kontekście etycznym istotne jest również, aby wszelkie gromadzone i przetwarzane dane były zgodne z obowiązującym prawem, a procesy decyzyjne systemu pozostawały w pełni weryfikowalne. Wdrażanie AI powinno uwzględniać potencjalne ryzyka związane z jej zastosowaniem, a także przewidywać mechanizmy nadzoru, weryfikacji i działań zapobiegawczych, które minimalizują niepożądane skutki. Dokument podkreśla również, że systemy AI nie mogą przyczyniać się do pogłębiania istniejących uprzedzeń ani dyskryminacji, lecz powinny wspierać równość, sprawiedliwość oraz dobrostan ludzi i środowiska. Ostatnią istotną zasadą jest odpowiedzialność - osoby i organizacje projektujące, wdrażające oraz wykorzystujące systemy AI odpowiadają za ich działanie i konsekwencje.
W rozporządzeniu AI Act (Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689) pojawia się wiele zbliżonych pojęć, takich jak „zorientowana na człowieka” czy „godna zaufania AI”, choć sam akt nie zawiera ich formalnej definicji. Termin ten występuje wielokrotnie w preambule oraz w artykule 1, co pozwala na interpretację jego znaczenia w kontekście regulacyjnym i praktycznym. AI Act wprowadza prawnie wiążące ramy dla systemów AI w UE, np. zakazy stosowania niektórych praktyk, obowiązki w zakresie przejrzystości czy zarządzania ryzykiem dla systemów wysokiego ryzyka. Można zatem zauważyć zbieżność pojęć między wytycznymi HLEG/EMA/FDA a zapisami AI Act, choć pełnią one różne funkcje – wytyczne wskazują kierunek etyczny i projektowy, natomiast AI Act określa obowiązki prawne.
2. Podejście oparte na ryzyku
Rozwój i wykorzystanie technologii AI odbywa się zgodnie z podejściem opartym na ryzyku, z proporcjonalną walidacją, łagodzeniem ryzyka nadzorem opartym na kontekście użytkowania i określonym ryzyku modelu. Zaczynając analizę od pierwszej przesłanki mianowicie ,,podejście oparte na ryzyku”. Model ten jest znany w AI Act. Wyodrębnione zostały tam cztery poziomy ryzyka dla systemów sztucznej inteligencji tj. niedopuszczalne ryzyko, wysokie ryzyko, ryzyko związane z przejrzystością, minimalne ryzyko lub jego brak. AI Act w art. 5 wprowadza katalog zakazanych praktyk, obejmujących systemy AI, których stosowanie uznano za niedopuszczalne z uwagi na zagrożenie dla praw podstawowych. W kontekście wykorzystania AI w badaniach nad lekami w szczególności należy wymienić zakazy odnoszące się do ochrony autonomii i podatności jednostki, w szczególności zakaz stosowania systemów manipulacyjnych oraz systemów wykorzystujących szczególne słabości uczestników badań klinicznych. Przechodząc do kategorii wysokiego ryzyka, systemy AI wykorzystywane w procesie rozwoju produktów leczniczych co do zasady nie podlegają kwalifikacji jako systemy wysokiego ryzyka na podstawie załącznika III AI Act, lecz mogą zostać uznane za takie na podstawie art. 6 ust. 1, jeśli stanowią „związany z bezpieczeństwem element” produktu regulowanego sektorowo i podlegają obowiązkowej ocenie zgodności przed dopuszczeniem do obrotu lub użycia. Pojęcie „związanego z bezpieczeństwem elementu” oznacza komponent, którego awaria lub nieprawidłowe działanie może zagrażać zdrowiu, bezpieczeństwu osób lub mieniu.
Za systemy AI wysokiego ryzyka uznaje się także systemy wprost wymienione w załączniku III, obejmujące m.in. systemy zdalnej identyfikacji biometrycznej, systemy oceny ryzyka popełnienia przestępstwa czy systemy podejmujące decyzje mające istotny wpływ na sytuację prawną jednostki. Prawodawca przewidział możliwość wyłączenia określonych systemów z tej kategorii, jeśli nie stwarzają znaczącego ryzyka dla zdrowia, bezpieczeństwa lub praw podstawowych oraz nie wywierają istotnego wpływu na wynik procesu decyzyjnego, przy czym skorzystanie z tego wyjątku wymaga udokumentowanej samooceny dostawcy i podlega kontroli właściwych organów krajowych. W przypadku systemów AI ograniczonego ryzyka ustawodawca przewiduje przede wszystkim obowiązki w zakresie przejrzystości, których celem jest zapobieganie wprowadzaniu użytkowników w błąd. Obejmuje to m.in. obowiązek informowania, że dany system działa w oparciu o AI, oraz wskazywania jego ograniczeń. Do kategorii systemów minimalnego ryzyka zalicza się wszystkie pozostałe systemy AI, które nie mieszczą się w żadnej z wyżej wymienionych grup. W ich przypadku AI Act nie wprowadza szczególnych wymogów regulacyjnych, pozostawiając swobodę w ich projektowaniu i stosowaniu.
Odwołanie do „proporcjonalnej walidacji” należy rozumieć jako konsekwencję przyjęcia w AI Act podejścia opartego na ryzyku. Oznacza ono, że zakres, intensywność i formalizacja procesów walidacyjnych systemów AI powinny być dostosowane do poziomu ryzyka, jaki dany system stwarza dla zdrowia, bezpieczeństwa lub praw podstawowych. Inaczej mówiąc zakres walidacji, nadzoru i wymogów wobec systemu AI zależy zarówno od poziomu ryzyka, jaki dany model stwarza, jak i od kontekstu jego zastosowania. Im większe potencjalne zagrożenie tym bardziej rygorystyczne wymagania.
REKLAMA
3. Przestrzeganie standardów
Technologie AI muszą być zgodne z obowiązującymi standardami prawnymi, regulacyjnymi, technicznymi i etycznymi, w tym z zasadami dobrych praktyk w farmacji i ochronie danych. W zakresie prawnym obejmuje to m.in. Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 w sprawie sztucznej inteligencji (AI Act), które ustanawia obowiązki dla operatorów systemów AI, zakazy niektórych praktyk oraz wymogi dla systemów wysokiego ryzyka, a także przepisy dotyczące ochrony danych osobowych zawarte w RODO, dyrektywy antydyskryminacyjne oraz krajowe regulacje dotyczące badań klinicznych i obrotu produktami leczniczymi. W zakresie regulacyjnym i dobrych praktyk standardy obejmują m.in. Good Manufacturing Practice (GMP), Good Clinical Practice (GCP), wytyczne ICH oraz możliwość korzystania z piaskownic regulacyjnych, które umożliwiają testowanie nowych technologii w kontrolowanym środowisku przy zachowaniu bezpieczeństwa pacjentów i badaczy. W zakresie technicznym i etycznym wymagane jest uwzględnienie wspomnianych już wcześniej wytycznych HLEG/ALTAI dla godnej zaufania sztucznej inteligencji. Dodatkowo stosowanie się do standardów ISO dotyczących bezpieczeństwa informacji i walidacji algorytmów medycznych zapewnia spójność techniczną i niezawodność działania systemów AI w kontekście farmaceutycznym.
4. Jasny kontekst użycia
Każdy system AI musi posiadać wyraźnie zdefiniowane cele oraz ściśle określony zakres zastosowania, co znajduje odzwierciedlenie w normie ISO/IEC 42001. Standard ten nakłada na organizację obowiązek dokumentowania kontekstu, w jakim system jest stosowany, określenia wspieranych przez niego procesów decyzyjnych oraz ryzyk wynikających z jego specyfiki. Wymóg ten jest nierozerwalnie związany z kwalifikacją poziomu ryzyka w ramach AI Act. Zgodnie z art. 6 tego rozporządzenia, precyzyjne określenie funkcji systemu oraz jego potencjalnego wpływu na zdrowie i mienie jest niezbędne do stwierdzenia, czy AI stanowi „związany z bezpieczeństwem element produktu”. Systemy wysokiego ryzyka muszą bowiem posiadać transparentnie zdefiniowany cel działania, co stanowi warunek sine qua non dla przeprowadzenia rzetelnej oceny zgodności i wdrożenia adekwatnego nadzoru.
5. Ekspertyza multidyscyplinarna
Ustalenie ram operacyjnych systemu wymaga z kolei ekspertyzy multidyscyplinarnej, która powinna być zintegrowana z projektem przez cały cykl życia technologii. Zasada ta odzwierciedla złożoność współczesnych rozwiązań, w szczególności modeli AI ogólnego przeznaczenia (GPAI). Warto zaznaczyć, że ich charakterystyka w wytycznych regulatorów farmaceutycznych wyraźnie nawiązuje do definicji legalnej zawartej w art. 3 pkt 63 AI Act, który opisuje modele cechujące się dużą skalą, zdolnością uczenia się na zróżnicowanych danych i kompetencją w wykonywaniu szerokiego zakresu zadań. W ujęciu EMA/FDA współpraca specjalistów z obszarów technologii AI, biologii, farmacji, prawa oraz etyki nie jest jedynie formalnością, lecz warunkiem koniecznym dla zapewnienia wiarygodności modelu. Multidyscyplinarne podejście gwarantuje wyższą jakość danych wejściowych, poprawną interpretację wyników w specyficznym kontekście klinicznym oraz pełne uwzględnienie otoczenia regulacyjnego. Koncepcja ta koresponduje z przesłankami klasyfikacji modeli o „dużym wpływie” w AI Act, gdzie systemy o znacznym potencjale generowania ryzyk systemowych podlegają szczególnej kontroli. W praktyce farmaceutycznej zaangażowanie ekspertów z różnych dziedzin pozwala stworzyć model, który nie tylko spełnia litery prawa, ale przede wszystkim działa efektywnie i bezpiecznie w rzeczywistych zastosowaniach medycznych.
6. Zarządzanie danymi i dokumentacją
Kolejnym filarem bezpieczeństwa technologii jest zarządzanie danymi i dokumentacja, które w cyklu życia leku muszą być przejrzyste i weryfikowalne. Zgodnie z wytycznymi EMA i FDA, każdy etap przetwarzania danych oraz każda decyzja analityczna muszą być udokumentowane w sposób umożliwiający pełną rekonstrukcję zdarzeń. W praktyce farmaceutycznej oznacza to konieczność zachowania standardu ALCOA++, który wyewoluował z pierwotnych pięciu zasad do obecnego zestawu dziesięciu atrybutów, obejmujących m.in. kompletność, spójność i trwałość zapisu. Dokumentacja ta nie może ograniczać się jedynie do wyników końcowych; zgodnie z wymogami GxP, musi ona obejmować cały proces „inżynierii danych”, od ich pierwotnego źródła po ostateczne wprowadzenie do modelu AI. Ma to kluczowe znaczenie w kontekście kontroli regulacyjnych, analiza działań FDA wskazuje bowiem, że aż 80% listów ostrzegawczych dotyczących integralności danych wydanych w ostatnich latach wynikało właśnie z luk w tym obszarze.
Zastosowanie standardu ALCOA++ w dobie sztucznej inteligencji nakłada na podmioty lecznicze obowiązek wdrożenia zaawansowanych ścieżek audytu, które rejestrują każdą modyfikację. Inspektorzy tacy jak EMA czy krajowy GIF oczekują obecnie nie tylko posiadania logów systemowych, ale proaktywnego i systematycznego przeglądu tych ścieżek pod kątem wykrywania ewentualnych manipulacji czy błędów ludzkich. Proces ten musi uwzględniać również ochronę prywatności i danych wrażliwych, co wiąże wymogi GxP z obowiązkami wynikającymi z RODO. Szczególnie ważne w tym kontekście jest to aby dane były ,,trwałe” i ,,dostępne”. Tak skonstruowany nadzór zapewnia wiarygodność i weryfikowalność danych uzyskanych przy pomocy AI.
7. Projektowanie i rozwój modeli praktyki
Siódma zasada to techniczne potwierdzenie, że system AI nie powstał w sposób przypadkowy, lecz został zbudowany według rygorystycznych standardów inżynieryjnych. W praktyce farmaceutycznej oznacza to przede wszystkim stosowanie standardu GAMP 5, który wymaga, aby każda funkcja algorytmu została przetestowana i sprawdzona przed jej użyciem (tzw. walidacja). Ponieważ systemy AI mają zdolność do ciągłego uczenia się, zasada ta wprowadza również nowoczesny nadzór (tzw. MLOps), który pełni rolę monitora jakości. Chroni on model przed utratą skuteczności po tym, jak opuści on laboratorium i trafi do szpitali. Kluczowym elementem bezpiecznego projektowania jest wybór danych „odpowiednich do użycia”. Oznacza to, że model nie może uczyć się na przypadkowych informacjach. Muszą być one reprezentatywne, czyli odzwierciedlać różnorodność pacjentów (np. pod kątem wieku, płci czy pochodzenia), co zapobiega powstawaniu błędnych uprzedzeń algorytmu. Dzięki temu model zyskuje cechę uogólnialności, mamy pewność, że będzie on działał bezpiecznie na każdym nowym pacjencie, a nie tylko na wąskiej grupie osób, na których był trenowany. W ujęciu regulatorów (EMA/FDA) priorytetem jest odejście od modeli typu „czarna skrzynka” (black box) na rzecz wyjaśnialności (Explainable AI - XAI), co znajduje swoje techniczne oparcie w normie ISO/IEC 23894. W ramach zarządzania ryzykiem norma ta wymaga, aby system potrafił zaprezentować logiczne przesłanki swojej decyzji tj. algorytm musi wskazać, które konkretne parametry medyczne przeważyły w danej ocenie klinicznej, umożliwiając lekarzowi merytoryczną weryfikację wyniku.
Dopełnieniem tej wizji jest standard ISO 9241 (Human-Centered Design). W medycznym AI HCD nie jest rozumiane jako estetyka interfejsu, lecz jako architektura bezpieczeństwa przeciwdziałająca zjawisku gdzie bezrefleksyjnie ulegamy sugestiom maszyny. Zgodnie z zasadami tej normy, takimi jak tolerancja na błędy oraz sterowalność, projekt systemu musi minimalizować skutki pomyłek człowieka i gwarantować użytkownikowi możliwość odrzucenia sugestii AI na każdym etapie. Zasada samo opisywalności wymusza z kolei, by system jasno komunikował swój stan i granice pewności, co bezpośrednio realizuje wymóg solidności technicznej przewidziany w unijnym AI Act. Ostatecznie zapewnia to, że cały proces podejmowania decyzji przez algorytm jest w pełni weryfikowalny, godny zaufania.
8. Ocena wydajności oparta na ryzyku
Oceny wydajności oparte na ryzyku oceniają cały system, w tym interakcje człowiek – sztuczna inteligencja, wykorzystując dane i metryki odpowiednie do zamierzonego kontekstu użytkowania, wspierane walidacją wydajności predykcyjnej za pomocą odpowiednio zaprojektowanych metod testowania i oceny. Choć pojęcie ,,podejścia opartego na ryzyku” zostało szczegółowo omówione przy Zasadzie 2, w kontekście klasyfikacji systemów pod AI Act, w ramach Zasady 8 ma wymiar bardziej operacyjny. W skrócie nie pytamy już o to czy system jest ryzykowny a bardziej w jakim stopniu musimy go przetestować, aby spełnić wymogi bezpieczeństwa. Kluczowym elementem tej zasady jest zdefiniowanie i monitorowanie interakcji człowiek–sztuczna inteligencja (Human-AI Interaction). Zgodnie z art. 14 AI Act, systemy wysokiego ryzyka muszą być zaprojektowane tak, aby umożliwiać skuteczny nadzór człowieka. W praktyce farmaceutycznej oznacza to stworzenie mechanizmu ciągłego uczenia pod nadzorem człowieka, gdzie człowiek nie jest tylko biernym odbiorcą wyniku, ale aktywnym operatorem filtrującym sugestie algorytmu. Taki model współpracy pozwala na weryfikację decyzji AI i skutecznie przeciwdziała zjawisku nadmiernego zaufania ,w którym personel medyczny mógłby bezkrytycznie akceptować błędne rekomendacje systemu. Rzetelna ocena wydajności wymaga również wdrożenia analizy trybów awaryjnych (failure mode). Zamiast skupiać się wyłącznie na potwierdzaniu skuteczności predykcyjnej modelu, podmioty wdrażające AI muszą celowo identyfikować słabe punkty systemu i momenty, w których algorytm może nie zauważyć sygnałów dotyczących bezpieczeństwa (np. rzadkie działania niepożądane leku).
Przywołanie w tym miejscu art. 15 AI Act jest kluczowe, ponieważ nakłada on obowiązek zapewnienia wysokiego poziomu odporności oraz dokładności. W praktyce oznacza to, że walidacja systemu nie może ograniczać się do symulacji w idealnych warunkach. Musi ona obejmować sprawdzenie, jak system reaguje na dane celowo błędne, niekompletne lub nietypowe przypadki medyczne W tym kontekście nowej definicji nabiera pojęcie danych odpowiednich do użycia. Patrząc na metodyki SPIFD oraz wytycznych FDA, „odpowiedniość” danych należy rozumieć jako proces selekcji oparty na dwóch konkretnych parametrach: wiarygodności (reliability) oraz istotności (relevancy). Wiarygodność nie dotyczy samej zawartości merytorycznej, lecz technicznej rzetelności źródła, badacz musi dowieść, że dane są spójne i kompletne. Z kolei istotność wymaga od badacza odpowiedzi na pytanie, czy posiadany zbiór danych (często pochodzący z rzeczywistego świata - Real-World Data) faktycznie reprezentuje populację docelową i zawiera zmienne niezbędne do odpowiedzi na konkretne pytanie kliniczne.
9. Zarządzanie cyklem życia
Oparte na ryzyku systemy zarządzania jakością są wdrażane na wszystkich etapach cyklu życia technologii AI, w szczególności w celu identyfikowania, oceny oraz reagowania na pojawiające się problemy. Technologie AI podlegają zaplanowanemu monitorowaniu oraz okresowej ponownej ocenie, aby zapewnić ich właściwe funkcjonowanie, na przykład w kontekście zmian w danych wejściowych. Zatem nie mówimy o jednokrotnej walidacji a o ciągłym nadzorze.
10. Jasne i istotne informacje
Wyniki generowane przez AI powinny być przedstawiane w sposób prosty i zrozumiały, tak aby użytkownicy i pacjenci mogli realnie zrozumieć ich sens, znaczenie i ograniczenia. W tym kontekście pomocne może być odwołanie do art. 13 AI Act, gdzie wprost narzucany jest wymóg przejrzystości. Rozporządzenie nakłada konkretny wymóg udostępniania konkretnych parametrów, zasada EMA/FDA kładzie nacisk na język i sposób komunikacji. W jaki sposób rozumiany jest ,,jasny język”? Nie jest to puste sformułowanie a konkretny wymóg oparty na standardach takich jak ISO 24495-1 (Plain Language). W praktyce farmaceutycznej i klinicznej oznacza to odejście od hermetycznego słownictwa na rzecz komunikatów przystępnych dla ,,zwykłego obywatela”. Ważna jest nie tylko stylistyka ale i sama struktura tekstu. Mówiąc dokładniej należy unikać długich rozbudowanych tekstów. Zamiast tego zaleca się stosowanie krótkich zdań, najlepiej w stronie czynnej, unikając strony biernej. Ostatecznie jasność komunikacji sprowadza się do wyjaśnienia, co dany wynik oznacza w praktyce, aktualnie w danym przypadku.
Powyższa analiza miała na celu rozebranie ogólnych zasad EMA/FDA na czynniki pierwsze i pokazanie, jakie konkretne wymogi techniczne oraz prawne kryją się pod każdym z haseł. To próba doprecyzowania celowo ogólnej terminologii i pokazania, że każda z tych 10 zasad ma swój techniczny odpowiednik, który musi zostać spełniony, aby model AI mógł zostać uznany za bezpieczny i wiarygodny w środowisku regulowanym.
Pełny tekst wytycznych: www.ema.europa.eu/en/documents/other/guiding-principles-good-ai-practice-drug-development_en.pdf
PODSUMOWANIE
Zasada | Wyjaśnienie |
1.Projektowanie zorientowane na człowieka | Przejście od etyki do praktyki Trustworthy AI; system musi wspierać decyzję człowieka (Human-in-the-loop) i być odporny na ataki i błędy. |
2.Podejście oparte na ryzyku | Klasyfikacja systemu wg AI Act; zakres walidacji i nadzoru zależy od tego, czy AI jest krytycznym „elementem bezpieczeństwa” produktu leczniczego. |
3.Przestrzeganie standardów | Połączenie nowych ram prawnych z klasyką farmacji: GxP, ICH oraz normami ISO w celu zapewnienia pełnej legalności i jakości. |
4. Jasny kontekst użycia | Obowiązek dokumentowania przeznaczenia (ISO/IEC 42001); precyzyjne określenie, gdzie kończą się kompetencje modelu, a zaczyna ryzyko błędu. |
5.Ekspertyza multidyscyplinarna | Współpraca IT, medycyny i prawa jako filtr dla modeli GPAI; gwarancja, że wynik techniczny zostanie poprawnie zinterpretowany klinicznie. |
6.Zarządzanie danymi i dokumentacją | Utrzymanie integralności danych wg ALCOA++; pełna ścieżka audytu pozwalająca odtworzyć każdą decyzję i modyfikację modelu. |
7.Projektowanie i rozwój modeli praktyki | Odejście od „czarnych skrzynek” na rzecz wyjaśnialności (XAI); stosowanie inżynierii GAMP 5 oraz monitoringu MLOps po wdrożeniu. |
8.Ocena wydajności oparta na ryzyku | Testowanie odporności na dane błędne (Art. 15 AI Act) oraz selekcja danych pod kątem ich wiarygodności i istotności dla populacji pacjentów. |
9.Zarządzanie cyklem życia | Zamiana jednorazowej walidacji na ciągły nadzór; systematyczne wykrywanie spadku jakości modelu (dryfu) w czasie rzeczywistym. |
10.Jasne i istotne informacje | Tłumaczenie statystyki na język Plain Language (ISO 24495-1); stosowanie krótkich zdań w stronie czynnej, by ułatwić szybką decyzję medyczną |
Zofia Kubic, KG LEGAL KIEŁTYKA GŁADKOWSKI
Źródła:
European Medicines Agency & U.S. Food and Drug Administration. (2026, January 14). Guiding principles of good AI practice in drug development (EMA/FDA joint principles). European Medicines Agency.
High-Level Expert Group on Artificial Intelligence. (2020). Assessment List for Trustworthy AI (ALTAI). European Commission.
Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act).
Jędrzejczyk Maria (red.), Szoszkiewicz Lukasz (red.), Wydra Jędrzej (red.), AI Act, Akt w sprawie sztucznej inteligencji. Komentarz
Quanticate, The ALCOA++ Principles for Data Integrity in Clinical Trials, 28 sierpnia 2025.
IQVIA,Blog: Understanding AI, Data and Human Interaction in Pharmaceutical Development, Mike King, Senor Director of Product & Stratgy, IQVIA, 06.02.2024.
National Library of Medicine - The Structured Process to Identify Fit-For-Purpose Data: A Data Feasibility Assessment Framework.
REKLAMA
© Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A.
REKLAMA
