"Prawo w nowej rzeczywistości AI - szanse i wyzwania" - najnowszy raport Wolters Kluwer i Law4AI pokazuje, że sztuczna inteligencja wykorzystywana jest już niemal w każdej dziedzinie, w tym w medycynie. Pierwszą europejską regulacją, która szczegółowo pochyla się nad prawnymi aspektami jej wykorzystania jest akt o sztucznej inteligencji (AI Act), który stopniowo wchodzi w życie. W Polsce trwają również prace nad ustawą o systemach sztucznej inteligencji (SSI), która ma przenieść unijne regulacje na krajowy grunt. To istotne także dla branży medycznej, a szczególnie twórców wyrobów medycznych opartych na AI.

Pobierz cały raport "Prawo w nowej rzeczywistości AI - szanse i wyzwania" TUTAJ >>

Systemy wysokiego ryzyka

Jeśli mowa o wyrobach medycznych, w których wykorzystywana jest sztuczna inteligencja, oprócz AI Act należy mieć na uwadze również unijne rozporządzenie w sprawie wyrobów medycznych (tzw. MDR – Medical Devices Regulation). Przepisy nawzajem się uzupełniają. Jak tłumaczy Michał Chodorek, adwokat specjalizujący się m.in. w prawie farmaceutycznym i własności intelektualnej, wyrobem medycznym może być m.in. oprogramowanie, o ile producent przewidział jego stosowanie u ludzi w co najmniej jednym ze szczególnych zastosowań medycznych wskazanych w MDR. - Oprogramowanie będące wyrobem medycznym może być wykorzystywane w bardzo różnych celach. Po pierwsze, może ono bezpośrednio kontrolować inne wyroby medyczne (np. oprogramowanie do radioterapii). Oprogramowanie może też dostarczać informacji, na podstawie których podejmowane są dalsze decyzje diagnostyczne lub terapeutyczne. Wreszcie - zapewniać wsparcie pracownikom służby zdrowia, np. pomagając w interpretacji wyników generowanych przez inne urządzenia, takich jak obrazy MRI (uzyskane przy pomocy rezonansu magnetycznego) czy zapisy EKG – wymienia ekspert.

Czytaj komentarz praktyczny w LEX: Wyroby medyczne jako systemy AI wysokiego ryzyka>

Według unijnej klasyfikacji systemy sztucznej inteligencji oparto na czterech rodzajach ryzyk, w zależności od tego, z jak dużą ingerencją w prawa, wolności czy bezpieczeństwo mamy do czynienia. Tak wyróżnione zostały systemy: niedopuszczalnego, wysokiego, średniego i minimalnego ryzyka. Mec. Chodorek wyjaśnia, że wyroby medyczne AI w przeważającej części będą systemami AI wysokiego ryzyka w rozumieniu aktu w sprawie sztucznej inteligencji, z uwagi na przewidziane przez producenta zastosowanie tych wyrobów medycznych oraz wiążący się z nim poziom ryzyka (np. znacznego pogorszenia stanu zdrowia diagnozowanej osoby w przypadku popełnienia błędu).

Czytaj także w LEX: Systemy wysokiego ryzyka w świetle AI Act>

Czytaj również: AI kusi prawników - brakuje jednak edukacji, szkoleń i dobrych przepisów

Polak: Jeszcze w 2025 roku cyfrowy Sąd Ochrony Konkurencji i Konsumentów

Obowiązki z dwóch aktów, ale ocena jedna  

Jak wyjaśnia Inga Grela, aplikantka radcowska, uznanie wyrobu medycznego za system AI wysokiego ryzyka będzie miało duże znaczenie dla wszystkich podmiotów występujących w łańcuchu stosowania tego systemu – producenta danego wyrobu medycznego, importerów, dystrybutorów oraz podmiotów stosujących system AI. Wiąże się bowiem z konkretnymi obowiązkami, m.in.: zapewnieniem zgodności systemów zarówno z AI Act, jak i MDR, wdrożeniem systemu zarządzania jakością czy zapewnieniem automatycznego rejestrowania zdarzeń przez system AI. Co ważne, nie będzie jednak konieczne przeprowadzanie podwójnej oceny zgodności – jedna wystarczy, by zweryfikować, czy zostały spełnione wymogi narzucane przez oba akty prawne.

Czytaj także w LEX: Wyroby medyczne - wprowadzanie do używania>

- Co istotne, przede wszystkim z perspektywy podmiotów leczniczych oraz (pośrednio) osób wykonujących zawody medyczne, akt w sprawie sztucznej inteligencji nakłada również określone obowiązki na tzw. podmioty stosujące system AI wysokiego ryzyka (ang. deployers). Podmiot stosujący taki system będzie zobowiązany m.in. podjąć odpowiednie środki organizacyjne i techniczne w celu zapewnienia, że system AI stosowany jest zgodnie z jego instrukcją obsługi, zapewnić nadzór człowieka nad stosowaniem systemu, który posiada odpowiednie kompetencje, wiedzę i przeszkolenie, monitorować działanie systemu AI wysokiego ryzyka zgodnie z jego instrukcją obsługi, oraz przechowywać generowane automatycznie przez system AI rejestry zdarzeń przez okres co najmniej sześć miesięcy – wyjaśnia ekspertka.

Zobacz także szkolenie w LEX: Sztuczna inteligencja (AI) a RODO – co musisz wiedzieć?>

Rozwój, ale też bezpieczeństwo

Jak wskazano z kolei w raporcie „Sztuczna inteligencja w zdrowiu. Bezpieczeństwo prawne i wykorzystanie w Polsce” przygotowanym przez ekspertów Think Tanku dla ochrony zdrowia Szkoły Głównej Handlowej, sektor zdrowotny już dziś wykorzystuje rozwiązania AI do niektórych procesów zarówno tych administracyjnych, jak i o charakterze stricte klinicznym. - Prawdziwy rozwój potencjału sztucznej inteligencji w branży zdrowia i ochrony zdrowia jeszcze przed nami. Najważniejszym warunkiem jest tworzenie stabilnego i bezpiecznego środowiska rozwoju technologii, opartego na zaufaniu wszystkich interesariuszy – podkreślono w opracowaniu.

Czytaj także komentarz praktyczny w LEX: Zmiany w Kodeksie Etyki Lekarskiej od 2025 roku>

Eksperci SGH rekomendują przede wszystkim konieczność szkolenia pracowników i zapewnienia odpowiedniego poziomu cyberbezpieczeństwa w związku z rozwojem nowych technologii. Konieczne jest przyjęcie na gruncie polskiego prawa jednolitego i przejrzystego modelu odpowiedzialności cywilnej za szkody wyrządzone przez systemy AI, a także określenie zasad odpowiedzialności za skutki wynikające z wewnętrznego funkcjonowania systemów AI, a także odpowiedzialności za skutki działania wywołanego przez niezależne czynniki zewnętrzne. W kontekście wyrobów medycznych postulują z kolei zaprojektowanie specjalistycznego procesu HTA (Health Technology Assessment, ocena technologii medycznych) dla AI, odnoszącego się do wszystkich elementów działania systemu (od procesu uczenia do rozwiązywania problemów) za pomocą systematycznej, bezstronnej, przejrzystej i obiektywnie rzetelnej metodologii. Konieczne jest też przyjęcie konsensusu w przedmiocie oceny i ewaluacji wyrobów medycznych opartych o AI.

Zobacz także wzór w LEX: Polityka korzystania przez pracowników z modeli AI>

Czytaj też: Gawrońska: Do stosowania sztucznej inteligencji w medycynie niezbędne są precyzyjne przepisy