Sztuczna Inteligencja w Farmacji: Wdrożenia i Walidacja Oprogramowania Zgodnie z nowymi Regulacjami UE

Spis treści
    AI w Farmacji: Oprogramowanie i Walidacja w Nowych Regulacjach UE

    Współczesny przemysł farmaceutyczny dynamicznie rozwija się dzięki sztucznej inteligencji (AI), która oferuje bezprecedensowe możliwości w odkrywaniu leków, optymalizacji produkcji i kontroli jakości. Wdrażanie tych technologii w regulowanym środowisku wymaga ścisłego przestrzegania norm. Kluczowym elementem zapewnienia bezpieczeństwa pacjenta i jakości produktu leczniczego jest walidacja systemów skomputeryzowanych w erze AI zgodnie z projektem nowych wytycznych UE dla farmacji. Niniejszy artykuł omawia najnowsze regulacje unijne, w tym Akt o Sztucznej Inteligencji oraz specyficzne wytyczne EudraLex, a także przedstawia praktyczne aspekty wdrażania i walidacji AI w farmacji.

    1. Regulacje dotyczące AI w UE 2025: Akt o Sztucznej Inteligencji (AI Act)

    Akt o Sztucznej Inteligencji (AI Act), który wszedł w życie w lutym 2025 roku, stanowi pierwsze na świecie kompleksowe ramy prawne dla AI, mające na celu zapewnienie zaufania do technologii w Europie. Wprowadza podejście oparte na ryzyku, klasyfikując systemy AI według poziomu potencjalnego zagrożenia.

    AI Act wszedł w życie 1 sierpnia 2024 roku, a jego wymagania są wdrażane stopniowo. Pierwsze przepisy, w tym zakaz „niedopuszczalnego ryzyka” i wymóg „AI literacy”, obowiązują od 2 lutego 2025 roku. Obowiązki dla dostawców modeli AI ogólnego przeznaczenia (GPAI) wchodzą w życie 2 sierpnia 2025 roku, choć finalizacja Kodeksu Postępowania GPAI została opóźniona do sierpnia 2025 roku. Większość przepisów, w tym te dotyczące systemów „wysokiego ryzyka”, zostanie wdrożona do 2 sierpnia 2026 roku, z dalszymi fazami implementacji do lata 2027 roku. Ten stopniowy harmonogram tworzy złożony i dynamiczny krajobraz zgodności regulacyjnej.

    Akt o Sztucznej Inteligencji definiuje cztery poziomy ryzyka: niedopuszczalne, wysokie, ograniczone i minimalne.Systemy niedopuszczalnego ryzyka są kategorycznie zakazane, ponieważ stanowią wyraźne zagrożenie dla bezpieczeństwa i praw podstawowych (np. manipulacje podprogowe, scoring społeczny, nieukierunkowane skanowanie twarzy). Przepisy dotyczące kar za naruszenia art. 5 wchodzą w życie 2 sierpnia 2025 r.

    Systemy wysokiego ryzyka to te, które stanowią poważne ryzyko dla zdrowia, bezpieczeństwa lub praw podstawowych. Obejmuje to AI używane jako komponenty bezpieczeństwa produktów objętych unijnym prawodawstwem harmonizacyjnym (np. w medycynie) lub wymienione w Załączniku III, chyba że nie stanowią znaczącego ryzyka. Systemy wysokiego ryzyka podlegają rygorystycznym obowiązkom, takim jak adekwatna ocena ryzyka, wysoka jakość danych, rejestrowanie aktywności, szczegółowa dokumentacja, jasne informacje dla użytkownika, nadzór ludzki oraz wysoki poziom solidności, cyberbezpieczeństwa i dokładności.

    Kluczowym wymogiem AI Act jest także „AI literacy” (umiejętność w zakresie AI). Od 2 lutego 2025 r. dostawcy i użytkownicy systemów AI muszą zapewnić, że ich personel posiada „wystarczający poziom AI literacy”. Wymóg ten dotyczy wszystkich systemów AI, nie tylko tych wysokiego ryzyka, i obejmuje zdolność do oceny implikacji prawnych i etycznych oraz krytycznej interpretacji wyników.

    AI Act jest ramą horyzontalną, która ma współistnieć z prawem sektorowym. Istnieje potrzeba jasności, w jakim stopniu ogólne zasady AI Act będą regulować użycie AI przez firmy farmaceutyczne, zwłaszcza w kontekście systemów wysokiego ryzyka. Europejska Agencja Leków (EMA) i Heads of Medicines Agencies (HMA) aktywnie pracują nad własnymi wytycznymi dotyczącymi AI w cyklu życia produktów leczniczych, co wskazuje na potrzebę specyficznych regulacji branżowych.

    2. Praktyczne Aspekty Wdrożeń AI w Produkcji Farmaceutycznej: Wytyczne EudraLex Annex 22

    W kontekście ogólnych ram AI Act, sektor farmaceutyczny otrzymuje bardziej szczegółowe wytyczne poprzez aktualizację EudraLex Volume 4. Kluczowe znaczenie mają zrewidowany Annex 11 dotyczący systemów skomputeryzowanych oraz zupełnie nowy Annex 22 poświęcony sztucznej inteligencji.

    Zrewidowany Annex 11 – Systemy Skomputeryzowane wzmacnia wymagania dotyczące zarządzania cyklem życia systemów skomputeryzowanych, kładąc nacisk na kompleksowe stosowanie zasad zarządzania ryzykiem jakości (QRM) na wszystkich etapach. Uściślono kontrole związane z zapewnieniem integralności danych, ścieżek audytu, podpisów elektronicznych i bezpieczeństwa systemu. Nowy Annex 22Sztuczna Inteligencja ustanawia specyficzne wymagania dla stosowania AI i uczenia maszynowego w produkcji substancji czynnych i produktów leczniczych.

    • Zakres Zastosowania: Annex 22 dotyczy systemów skomputeryzowanych, w których modele AI są wykorzystywane w krytycznych zastosowaniach, czyli tych z bezpośrednim wpływem na bezpieczeństwo pacjenta, jakość produktu lub integralność danych, np. do przewidywania lub klasyfikacji danych. Dotyczy to konkretnie modeli uczenia maszynowego (AI/ML), które uzyskują funkcjonalność poprzez trening na danych.
      • Kluczowe Ograniczenia i Wykluczenia: Annex 22 ma bardzo precyzyjne ograniczenia. Dotyczy wyłącznie modeli statycznych (nie adaptujących się w trakcie użytkowania) i deterministycznych (identyczne dane wejściowe zawsze dają identyczne dane wyjściowe). Modele dynamiczne (ciągle uczące się) i probabilistyczne (identyczne dane wejściowe mogą nie dawać identycznych wyników) nie powinny być używane w krytycznych zastosowaniach GMP. Co więcej,
      • Generatywna AI i Duże Modele Językowe (LLM) są wyraźnie wykluczone z krytycznych zastosowań GMP. Jeśli te modele są używane w niekrytycznych zastosowaniach, wykwalifikowany i przeszkolony personel musi zapewnić, że ich wyniki są odpowiednie, co implikuje podejście „human-in-the-loop” (HITL).
    • Zasady Ogólne: Wymagana jest ścisła współpraca między wszystkimi zaangażowanymi stronami (eksperci merytoryczni (SME), QA, data scientists, IT) podczas selekcji algorytmów, treningu, walidacji, testowania i operacji. Personel musi posiadać odpowiednie kwalifikacje. Pełna dokumentacja wszystkich działań musi być dostępna i przeglądana. Wszystkie działania muszą być wdrażane w oparciu o ryzyko dla bezpieczeństwa pacjenta, jakości produktu i integralności danych.
    • Zamierzone Zastosowanie (Intended Use): Należy szczegółowo opisać zamierzone zastosowanie modelu i jego specyficzne zadania, bazując na dogłębnej wiedzy o procesie. Obejmuje to charakterystykę danych wejściowych i identyfikację ograniczeń.
    • Kryteria Akceptacji: Należy zdefiniować odpowiednie metryki testowe do pomiaru wydajności modelu (np. macierz pomyłek, czułość, swoistość, dokładność, precyzja i/lub F1 score). Kryteria akceptacji muszą być co najmniej tak wysokie, jak wydajność zastępowanego procesu.
    • Dane Testowe: Dane testowe muszą być reprezentatywne dla i rozszerzać pełną przestrzeń próbki zamierzonego zastosowania. Powinny być stratyfikowane, obejmować wszystkie podgrupy i odzwierciedlać ograniczenia. Zbiór danych testowych musi być wystarczająco duży, aby obliczyć metryki z odpowiednią pewnością statystyczną. Etykietowanie danych testowych musi być zweryfikowane.
    • Niezależność Danych Testowych: Kontrole techniczne i/lub proceduralne muszą zapewnić niezależność danych testowych, co oznacza, że dane użyte do testowania nie mogą być używane podczas rozwoju, treningu lub walidacji modelu.
    • Wykonanie Testów: Testy muszą zapewnić, że model jest odpowiedni do zamierzonego zastosowania i „dobrze generalizuje”. Wymagany jest przygotowany i zatwierdzony plan testów. Wszelkie odchylenia muszą być udokumentowane i uzasadnione.
    • Wyjaśnialność (Explainability): Systemy muszą rejestrować cechy w danych testowych, które przyczyniły się do klasyfikacji lub decyzji. Należy stosować techniki atrybucji cech (np. SHAP, LIME) lub narzędzia wizualne.
    • Pewność (Confidence): System powinien logować wynik pewności modelu dla każdego wyniku. Niskie wyniki pewności powinny być oflagowane jako „niezdecydowane”.
    • Operacje (Ciągłe Użycie): Model, system i proces muszą być pod kontrolą zmian. Wymagane jest regularne monitorowanie wydajności modelu i przestrzeni próbek wejściowych (data drift).
    AI w Farmacji: Oprogramowanie i Walidacja w Nowych Regulacjach UE

    3. AI w Produkcji Leków: Zastosowania i Korzyści

    Integracja sztucznej inteligencji w przemyśle farmaceutycznym prowadzi do znaczących przekształceń w procesie odkrywania i rozwoju leków oraz zarządzania sektorem farmaceutycznym. AI usprawnia każdy etap, od odkrywania leków po badania kliniczne, produkcję i zarządzanie łańcuchem dostaw.

    W obszarze odkrywania i projektowania leków, AI przyspiesza analizę ogromnych zbiorów danych, identyfikację celów molekularnych i przewidywanie interakcji lek-cel, co redukuje czas i koszty. Umożliwia wirtualne przesiewanie bibliotek chemicznych, proponowanie nowych struktur (de novo drug design) oraz optymalizację kandydatów na leki.

    Wsparcie AI w badaniach klinicznych jest równie znaczące. Systemy AI skracają czas trwania cykli badań klinicznych, wykorzystując modele predykcyjne do identyfikacji istotnych informacji w danych rzeczywistych (RWD). AI pomaga w efektywniejszym dopasowywaniu pacjentów do badań oraz w ich projektowaniu.Ważną innowacją jest wykorzystanie cyfrowych bliźniaków – wirtualnych modeli pacjentów, które symulują indywidualne reakcje na terapie.

    W procesach produkcyjnych AI rewolucjonizuje wiele aspektów:

    • Automatyzacja Procesów: AI usprawnia produkcję, zapewniając spójność w powtarzalnych procesach.
    • Konserwacja Predykcyjna: Ciągłe monitorowanie operacji produkcyjnych pozwala AI identyfikować potrzebę wymiany lub naprawy części, zanim zatrzymają operacje.
    • Redukcja Odpadów: AI pomaga w analizie partii leków w celu określenia, gdzie można wprowadzić ulepszenia. Systemy kontroli jakości napędzane AI mogą wykrywać wczesne defekty, redukując odpady nawet o 25%.
    • Harmonogramowanie Produkcji: AI optymalizuje harmonogramy, minimalizując zmiany, umożliwiając produkcję just-in-time i maksymalizując wydajność dostaw.
    • Wykrywanie Anomalii i Cyfrowy Bliźniak Fabryki: Połączenie wykrywania anomalii z cyfrowymi bliźniakami umożliwia identyfikację i replikację „złotej partii”, minimalizując odchylenia.
    • Prognozowanie Popytu i Zarządzanie Zapami: AI transformuje prognozowanie popytu i zarządzanie zapasami, dostarczając dokładniejszych prognoz.
    • Inteligentna Logistyka i Łańcuch Dostaw: AI optymalizuje trasy, redukując koszty, czas dostawy i emisje, oraz usprawnia przepływ informacji i współpracę.

    Zastosowania AI rozciągają się na cały cykl życia produktu farmaceutycznego, od badań i rozwoju, przez produkcję, aż po logistykę i medycynę spersonalizowaną. Sukces wdrożenia AI w farmacji jest nierozerwalnie związany z dojrzałością firmy w zakresie zarządzania danymi.

    4. Zapewnienie jakości produktu leczniczego z użyciem sztucznej inteligencji

    Zapewnienie jakości i bezpieczeństwa produktów farmaceutycznych jest kwestią najwyższej wagi. Sztuczna inteligencja (AI) jawi się jako siła transformacyjna, zdolna przedefiniować krajobraz kontroli jakości w farmacji.

    Jednym z najbardziej znaczących wkładów AI w laboratoriach QC jest jej zdolność do obsługi i interpretacji kolosalnych ilości danych. Algorytmy AI, zwłaszcza modele uczenia maszynowego, doskonale radzą sobie z przetwarzaniem złożonych zbiorów danych, odkrywając ukryte korelacje i dostarczając praktycznych wniosków. Ta zdolność do analityki predykcyjnej przenosi kontrolę jakości z funkcji reaktywnej na proaktywną, pozwalając laboratoriom przewidywać problemy, zanim się nasilą. Na przykład, AI może analizować dane spektroskopowe w celu przewidywania krytycznych atrybutów jakości lub przewidywać prawdopodobieństwo niezgodności partii.

    AI, poprzez wizję komputerową i głębokie uczenie, rewolucjonizuje inspekcję wizualną, zapewniając bardzo dokładne i spójne możliwości automatycznej inspekcji. Systemy wizyjne oparte na AI oferują automatyczne wykrywanie subtelnych defektów z większą szybkością i dokładnością niż inspektorzy ludzcy.

    AI zwiększa integralność danych poprzez automatyzację ich zbierania, redukcję błędów ręcznego wprowadzania oraz zastosowanie algorytmów do wykrywania anomalii lub niespójności w zbiorach danych. Może również zapewnić ciągłe monitorowanie strumieni danych pod kątem zgodności z zasadami GxP.

    Dodatkowo, AI poprawia widoczność i kontrolę w całym łańcuchu dostaw, od kwalifikacji dostawców po dystrybucję gotowego produktu, łagodząc ryzyka związane z podrabianymi lekami i materiałami o niskiej jakości. Przyczynia się również do obniżenia potencjału błędów ludzkich, które są głównym czynnikiem kosztów w produkcji farmaceutycznej.

    5. Wdrożenie i Walidacja AI zgodnie z Nowymi Wytycznymi: Praktyczne Aspekty

    Wdrożenie i walidacja systemów AI w farmacji wymaga zintegrowanego podejścia, łączącego ogólne zasady AI Act, wzmocnione wymagania Annexu 11 i specyficzne wytyczne Annexu 22. Annex 11 stanowi podstawę dla zarządzania cyklem życia systemów skomputeryzowanych, a Annex 22 dodaje warstwy specyficzne dla AI.

    Zasady Zarządzania Ryzykiem Jakości (QRM) muszą być kompleksowo stosowane na wszystkich etapach cyklu życia modelu AI: od wyboru algorytmu, przez trening, walidację, testowanie, aż po operacje.

    Kluczowe etapy walidacji modeli AI, szczegółowo opisane w Annex 22, obejmują:

    • Definicja Zamierzonego Zastosowania (Intended Use): Szczegółowy opis modelu i jego zadań, bazujący na dogłębnej wiedzy o procesie, w który jest zintegrowany.
    • Ustalenie Kryteriów Akceptacji: Zdefiniowanie odpowiednich metryk testowych i kryteriów akceptacji, które powinny być co najmniej tak wysokie, jak wydajność zastępowanego procesu.
    • Rygorystyczne Zarządzanie Danymi Testowymi: Dane testowe muszą być reprezentatywne, stratyfikowane, wystarczająco duże i mieć zweryfikowane etykietowanie. Kluczowa jest niezależność danych testowych od danych treningowych/walidacyjnych.
    • Wykonanie Testów i Dokumentacja: Testy muszą zapewnić, że model jest odpowiedni do zamierzonego zastosowania i „dobrze generalizuje”. Wymagany jest zatwierdzony plan testów, a wszelkie odchylenia muszą być udokumentowane.
    • Wyjaśnialność (Explainability) i Pewność (Confidence): Systemy powinny rejestrować cechy, które przyczyniły się do decyzji (np. SHAP, LIME) oraz logować wynik pewności modelu dla każdego wyniku. Niskie wyniki pewności powinny być flagowane jako „niezdecydowane”.
    • Ciągłe Monitorowanie i Kontrola Zmian: Model i system muszą być pod kontrolą zmian. Wydajność modelu i przestrzeń próbek danych wejściowych muszą być regularnie monitorowane w celu wykrycia dryfu danych.

    W kontekście nadzoru ludzkiego („Human-in-the-Loop” – HITL), rola człowieka pozostaje kluczowa. W przypadku systemów, gdzie wysiłek testowy został zmniejszony, lub w zastosowaniach nie-krytycznych dla Generatywnej AI/LLM, wymagany jest konsekwentny przegląd i/lub testowanie każdego wyniku modelu przez operatora.

    Praktyczne wyzwania wynikają z ograniczeń Annexu 22. Firmy muszą dokładnie klasyfikować swoje systemy AI, aby upewnić się, że w krytycznych zastosowaniach GMP używają wyłącznie modeli statycznych i deterministycznych.

    Poniższa tabela stanowi praktyczną listę kontrolną i przewodnik dla specjalistów ds. walidacji, systematyzując szczegółowe wymagania Annexu 22.

    Tabela 1: Kluczowe Wymogi Walidacyjne dla Modeli AI w Krytycznych Aplikacjach GMP (na podstawie Draft Annex 22)

    Aspekt Walidacji Wymóg (na podstawie Annex 22) Kluczowe Rozważania/Przykłady Odpowiedzialność (wg Annex 22)
    1. Zamierzone Zastosowanie Szczegółowy opis modelu i jego zadań; charakterystyka danych wejściowych, ograniczeń. Pomoc lub automatyzacja; podział na podgrupy; rola operatora w HITL. Process SME
    2. Kryteria Akceptacji Zdefiniowanie metryk testowych (np. confusion matrix, sensitivity, accuracy). Wydajność modelu co przynajmniej równa wydajności zastępowanego procesu. Zmienne dla podgrup; znajomość wydajności procesu zastępowanego. Process SME
    3. Dane Testowe Reprezentatywność i rozszerzenie pełnej przestrzeni próbki; stratyfikacja, wszystkie podgrupy. Wystarczający rozmiar danych dla pewności statystycznej. Weryfikacja etykietowania. Uzasadnienie pre-processingu i wykluczeń. N/A (ogólne wymagania)
    4. Niezależność Danych Testowych Dane testowe nie mogą być używane w rozwoju, treningu, walidacji. Kontrole techniczne/proceduralne (dostęp, audit trail). Zabezpieczenie danych testowych; zasada „czterech oczów”. N/A (ogólne wymagania)
    5. Wykonanie Testów Zapewnienie, że model jest odpowiedni do zamierzonego zastosowania i „dobrze generalizuje” (wykrywanie over/underfitting). Zatwierdzony plan testów; dokumentacja odchyleń i niepowodzeń. Process SME (zaangażowanie w plan)
    6. Wyjaśnialność (Explainability) Rejestrowanie cech w danych testowych, które przyczyniły się do decyzji/klasyfikacji. Użycie technik (SHAP, LIME) lub narzędzi wizualnych (mapy ciepła); przegląd cech. N/A (wymóg systemowy)
    7. Pewność (Confidence) Logowanie wyniku pewności modelu dla każdego wyniku. Ustawienie progu; flagowanie jako „undecided” przy niskiej pewności. N/A (wymóg systemowy)
    8. Operacje (Ciągłe Użycie) Kontrola zmian i konfiguracji. Regularne monitorowanie wydajności systemu i dryfu danych. Ocena zmian pod kątem retestowania; procedury przeglądu ludzkiego (HITL). N/A (wymóg operacyjny)
    AI w Farmacji: Oprogramowanie i Walidacja w Nowych Regulacjach UE

    6. Podsumowanie – Oprogramowanie wykorzystujące AI w branży farmaceutycznej

    Integracja sztucznej inteligencji w przemyśle farmaceutycznym jest nieunikniona i oferuje ogromne korzyści. Jednakże, wdrożenie tych technologii wymaga proaktywnego i rygorystycznego podejścia do zgodności regulacyjnej. Kluczowe jest zrozumienie i wdrożenie wymagań wynikających zarówno z ogólnych ram prawnych, takich jak Akt o Sztucznej Inteligencji, jak i z branżowych wytycznych EudraLex, w szczególności zaktualizowanego Annexu 11 i nowego Annexu 22.

    Dla specjalistów ds. walidacji systemów skomputeryzowanych oznacza to konieczność adaptacji do nowych standardów, które kładą nacisk na kompleksowe zarządzanie ryzykiem, integralność danych (zwłaszcza danych testowych), rygorystyczną walidację (w tym niezależność danych testowych, wyjaśnialność i pewność modelu) oraz utrzymanie kluczowej roli nadzoru ludzkiego. Wyraźne ograniczenia dotyczące typów AI dopuszczalnych w krytycznych zastosowaniach GMP (modele statyczne i deterministyczne) zmuszają do ostrożnego wyboru technologii.

    Branża farmaceutyczna musi być gotowa na ciągłą ewolucję regulacji i inwestować w rozwój kompetencji w zakresie „AI literacy” wśród personelu. Przyszłość AI w farmacji będzie kształtowana przez zdolność do innowacji w ramach jasno zdefiniowanych i rygorystycznych ram regulacyjnych, zapewniając jednocześnie najwyższe standardy bezpieczeństwa i jakości dla pacjentów.

    7. Jak TTMS może Ci pomóc w wykorzystaniu AI w farmacji

    W TTMS doskonale rozumiemy, jak wymagające jest łączenie innowacyjnych technologii AI z rygorystycznymi regulacjami farmaceutycznymi. Nasi eksperci wspierają firmy w bezpiecznym i zgodnym z prawem wdrażaniu rozwiązań, które zwiększają efektywność i nie obniżają zaufania pacjentów.

    Chcesz zrobić kolejny krok? Skontaktuj się z nami i sprawdź, jak możemy przyspieszyć Twoją drogę do bezpiecznej i innowacyjnej farmacji.

    Wiktor Janicki

    Transition Technologies MS świadczy usługi informatyczne terminowo, o wysokiej jakości i zgodnie z podpisaną umową. Polecamy firmę TTMS jako godnego zaufania i rzetelnego dostawcę usług IT oraz partnera wdrożeniowego Salesforce.

    Czytaj więcej
    Julien Guillot Schneider Electric

    TTMS od lat pomaga nam w zakresie konfiguracji i zarządzania urządzeniami zabezpieczającymi z wykorzystaniem różnych technologii. Ueługi świadczone przez TTMS są realizowane terminowo, i zgodnie z umową.

    Czytaj więcej

    Już dziś możemy pomóc Ci rosnąć

    Porozmawiajmy, jak możemy wesprzeć Twój biznes

    TTMC Contact person
    Monika Radomska

    Sales Manager