Czy AI wykona za MAH ustawowe obowiązki w cyklu życia produktu leczniczego?

Od stworzenia produktu do pharmacovigilance – opublikowanie propozycji EMA

1. Próby uregulowania AI w prawodawstwie unijnym – czy prawo dogodni technologię?

Dyskusje na temat uregulowania stosowania AI w różnych sektorach biznesu są coraz gorętsze. Rosnąca popularność i funkcjonalność ChatGPT (i innych podobnych programów) oraz opublikowanie projektu Artificial Intelligence Act („AIA”), uznającego niektóre obszary wykorzystania AI za niedozwolone, rodzi wątpliwości w konkretnych przypadkach – kiedy AI będzie odpowiednia, a kiedy ryzyka związane z jej wykorzystaniem są zbyt duże?

AIA pozostaje na etapie prac legislacyjnych (więc nie jest jeszcze obowiązującym aktem prawnym). Niemniej jednak nawet AIA nie wprowadzi zamkniętej listy czy jednoznacznego podziału sposobów wykorzystania AI na zakazane i dozwolone. Tym samym nie możemy liczyć na sztywne reguły i jednoznaczne wskazówki. W dużej mierze „ciężar” prawidłowej oceny spocznie na przedsiębiorcach tworzących i wdrażających AI w zakresie prowadzonej działalności.

AIA stawia na oszacowanie przez wdrażającego narzędzia AI ryzyk związanych z określonym zastosowaniem, prawidłową kwalifikację poziomu ryzyka, a następnie zastosowanie odpowiednich środków ich ograniczenia uwzględniających dobra prawne które są zagrożone przez dane ryzyko.

Wskazane są jednak obszary, w których użycie AI będzie kwalifikowane wprost jako niedozwolone. Są to m.in. systemy służące manipulowaniu ludźmi z użyciem technik podprogowych działających na ich podświadomość lub wykorzystujące słabości określonych „słabszych” grup (w taki sposób, aby istotnie wypaczyć ich zachowania w sposób powodujący szkodę) czy to także systemy oceny i punktowania zachowań społecznych przez organy władzy publicznej.

2. AI a system ochrony zdrowia

Powołany projekt nie wyklucza jednak zastosowania AI w obszarach ochrony zdrowia, a wręcz wprost wskazuje m.in. na możliwość korzystania AI w mechanizmie wyrobów medycznych. Realnie nie jest tajemnicą, że wyroby medyczne nie od dziś często korzystają z technologii AI i uczenia maszynowego (Machine Learning, ML) na własne potrzeby Dodatkowo w lipcu EMA opublikowała projekt wytycznych w zakresie wykorzystania AI oraz ML w cyklu życia produktu leczniczego (Draft Reflection paper on the use of Artificial Intelligence (AI) in the medicinal product lifecycle, „Draft) opracowany przez Komitet ds. Produktów Leczniczych Stosowanych u Ludzi (CHMP). Aktualnie dokument to przykład soft law, a zarazem zaproszenie do konsultacji publicznych w tej materii, a termin końcowy zgłaszania uwag został wyznaczony na 31 grudnia 2023 r.

Draft wskazuje, że organy regulacyjne widzą możliwość (a nawet nieuchronność) wykorzystania AI i ML w obszarze regulacji produktów leczniczych – zarówno przeznaczonych dla ludzi, jak i weterynaryjnych. Jednakże, o ile aktualne wytyczne mają zastosowanie do obu kategorii, w odniesieniu do produktów weterynaryjnych należy traktować je odpowiednio, czyli (jak wskazuje autor) mając na względzie zasadnicze różnice w ich specyfice. W praktyce oznacza to, że zamiarem jest, aby w dalszej perspektywie stworzyć odrębne wytyczne dla każdej z grup (i sugeruje to sam Draft).

3. Po pierwsze – identyfikacja ryzyka

Draft stanowi niejako wstęp do tematu uregulowania wykorzystania AI przy tworzeniu oraz w cyklu życia produktu leczniczego i jest odpowiedzią na praktykę rynkową stosowania narzędzi AI w tym obszarze.

Wykorzystanie AI/ML w cyklu życia produktu opiera się przede wszystkim na przetwarzaniu danych – czy to na skutek programowania czy to „wyszkolenia” algorytmu. EMA pragnie dzielić się wskazówkami (w tym swoimi doświadczeniami) związanymi z tą technologią. Podkreśla tym samym, że celem jest osiągnięcie minimalnego ryzyka związanego z błędem (a więc maksymalnej „wiarygodności” technologii) i wyeliminowanie dyskryminacji przez algorytm pewnych cech, skłonności, genotypów czy też innych sytuacji, które mogłyby mieć miejsce przy pozostawieniu algorytmu bez jakiegokolwiek nadzoru.

EMA jest świadoma i wielokrotnie podkreśla, że kluczowe dla ograniczenia ryzyka są de facto:

  • zidentyfikowanie punktów, w których AM i ML mogą być wykorzystane w cyklu życia produktu leczniczego;
  • ustalenie ryzyk dla każdego z punktów,
  • oszacowanie rozmiaru tego ryzyka (a raczej – możliwych skutków) a następnie
  • prawidłowe nim zarządzanie przez cały czas jego używania.

W praktyce prawidłowe zarządzenie ryzykiem należy uznać jako dostosowany system zarządzania ryzykiem. Równocześnie trzeba mieć na uwadze, że zarządzanie ryzykiem (także tym związanym z wykorzystaniem AI i ML) to proces ciągły, za który odpowiadać będą przede wszystkim podmiot odpowiedzialny („MAH”) czy inne podmioty na których prawo nakłada obowiązki w cyklu życia produktu. EMA podkreśla nawet wprost, że od MAH planujących wdrożenie technologii AI/ML oczekuje się rozważenia i systematycznego zarządzania odpowiednimi rodzajami ryzyka od wczesnego etapu rozwoju do wycofania z użycia.

4. Po drugie – jakim regułom podlega AI w cyklu życia produktu leczniczego?

Autorzy dokumentu podkreślają, że wykorzystanie AI w sektorze farmaceutycznym musi oczywiście pozostawać zgodne z innymi pozostającymi w mocy regulacjami (np. w przetwarzania danych osobowych, wymogami regulacyjnymi dla wyrobów medycznych posługujących się AI czy wymogami wynikającymi z AIA gdy już wejdzie w życie).

Dodatkowo MAH korzystający z takiej technologii zobowiązany będzie zapewnić, że wszystkie stosowane algorytmy, modele, zbiory danych i sposoby przetwarzania danych są odpowiednie do celu oraz pozostają zgodne ze standardami etycznymi, technicznymi, naukowymi i regulacyjnymi opisanymi w standardach Dobrych Praktyk i aktualnymi wytycznymi naukowymi EMA. Draft podkreśla, że wymagania dla AI w obszarze farmaceutycznym mogą być pod pewnymi względami bardziej rygorystyczne.

Dodatkowo EMA wskazuje, że wraz z wnioskiem o opinie lub poradę, może być oczekiwane, że MAH (lub podmiot wnioskujący o pozwolenie) przedstawi również odpowiednie uzasadnienie naukowe i specyfikacje w zakresie technologii umożliwiające ocenę systemów AI/ML wykorzystywanych w cyklu życia produktu (a przede wszystkim to, czy w danej sytuacji można je uznać za odpowiednie).

5. Od odkrycia do wprowadzenia na rynek

Dokument identyfikuje obecność AI na niemal każdym etapie tworzenia i cyklu życia produktu leczniczego:

  • Odkrycie produktu: Na tym etapie ryzyko związane z wykorzystaniem takiej technologii szacuje się jako niskie. Stanowi bowiem to niejako dopiero wstęp w procesie tworzenia i (w razie niekorzystnych wyników lub wykrycia błędów) prace nad produktem albo w ogóle nie ruszą, albo zostaną przerwane na bardzo wczesnym etapie. Jednakże na etapie tworzenia danych przedklinicznych, wsparcie AI/ML w procesie przetwarzania i generowania może być znaczące. Dokument widzi tu szansę, aby zastąpić, ograniczyć czy uczynić bardziej efektywnym wykorzystanie zwierząt w procesie tworzenia produktów leczniczych.
  • Badania kliniczne: Tu ryzyko rośnie proporcjonalnie do znaczenia AI/ML w tym procesie. Jeśli technologie te są wykorzystywane do przekształcania lub analizy danych w ramach badania klinicznego leku, EMA podkreśla, że uznawać je będzie za część analizy statystycznej, a więc algorytmy powinny być zgodne z obowiązującymi wytycznymi. Na późniejszych etapach będzie to wymagało również objęcia szczegółową dokumentacją sam wykorzystywany algorytm. Także sama analiza nie będzie mogła odchodzić od ustalonego algorytmu, który będzie wymagał „zablokowania” takiej możliwości. Należy mieć na uwadze, że (w ocenie EMA) odstępstwo od ustalonego modelu miałoby uczynić wyniki analizy niewiarygodnymi.
  • Indywidualizacja leczenia pacjenta; opracowania, tłumaczenia i weryfikacja oznakowania produktu leczniczego: O ile udział AI/ML nie jest tu wykluczony, o tyle identyfikuje się tu znacznie większe ryzyko. Dlatego w obu tych przypadkach oczekiwane jest raczej „wkroczenie” człowieka – czy to poprzez nadzór lekarza nad indywidualizowanym leczeniem czy to poprzez zapewnienie weryfikacji rezultatów opracowań AI przez człowieka.
  • Produkcja, Pharmacovigilance: EMA dostrzega szanse na optymalizację w związku z udziałem AI/ML przy kontroli jakości i nadzorze przy zwalnianiu partii, jak i realizacji Pharmacovilligence, w tym odpowiednie zarządzenie informacją o działaniu niepożądanym.

6. AI/ML a nowe obowiązki MAH?

Czy stosowanie AI/ML odciąży MAH w zakresie coraz bardziej rozbudowywanych obowiązków, standardów, wytycznych i Dobrych Praktyk (poza obowiązkami wynikającymi z hard law)?

Tutaj odpowiedź jest bardzo złożona. Oczywiście AI/ML wykona (zamiast przedsiębiorcy i jego pracowników) bardzo wiele uciążliwych i powtarzalnych czynności oraz stosownie to udokumentuje. Nie będzie to wymagało przeszkolenia i ścisłego nadzoru nad pracownikami w tym aspekcie oraz przeznaczenia dodatkowych zasobów na odpowiednią dokumentację w tej materii. Niemniej nie oznacza to, że przedsiębiorcę zastąpi technologia w stu procentach.

To wciąż w gestii (oraz zakresie odpowiedzialności) przedsiębiorcy pozostaje opracowanie skutecznych, efektywnych procedur, zgodnych z przepisami prawa, standardami, wytycznymi i Dobrymi Praktykami. Dodatkowo przedsiębiorca zyska nowe obowiązki w zakresie nadzoru samej technologii. To na MAH wykorzystującym AI/ML więc ciążyć będą nowe obowiązki związane z wdrożeniem i utrzymywaniem AI/ML oraz zarządzaniem związanym z tym ryzykiem.

Przykładowo, EMA podkreśla, że zastosowanie AI/ML w ramach nadzoru nad bezpieczeństwem farmakoterapii może przewidywać bardziej elastyczny model „uczenia” algorytmu, a tym samym – rozwijać modele klasyfikacji oraz oceny niekorzystnych zjawisk czy wykrywanie sygnałów. Jednakże na każdym etapie, przedsiębiorca musi stać obok i zapewnić, że algorytm oraz model działają prawidłowo (a zarazem w sposób odpowiedni dla konkretnego etapu i do adekwatnego ryzyka). Realnie więc przedsiębiorca zobowiązany będzie zapewnić sobie odpowiednie zaplecze – a przede wszystkim odpowiednich specjalistów – działających na styku technologii oraz kwestii formalnych, tak, aby wdrożona technologia była prawidłowa z punktu widzenia wiedzy merytorycznej, jak i od strony prawnej. Dodatkowo konieczne będzie zadbanie o prawidłowe uregulowanie współpracy z dostawcami technologii.

Marek Paluch

Marek Paluch
Radca Prawny, Senior Associate

marek.paluch@dzp.pl

Olga Chodorowska

Olga Chodorowska
Prawnik, Associate

Olga.Chodorowska@dzp.pl

Komentarze

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *