Powstaje polska „Biała Księga AI w praktyce klinicznej”

Rawpixel

Już w maju do konsultacji społecznych trafi dokument będący próbą samoregulacji zasad stosowania sztucznej inteligencji w medycynie. Obecnie w Polsce nie obowiązują żadne przepisy ani zestaw dobrych praktyk obejmujących ten obszar, choć wiele placówek medycznych wykorzystuje AI w codziennej praktyce do wsparcia diagnostyki czy wyboru schematów leczenia.

Jak korzystać z algorytmów uczenia maszynowego i sztucznej inteligencji w opiece zdrowotnej? Kto bierze odpowiedzialność za decyzję podjęte przez oprogramowanie? Jak działać zgodnie z przepisami polskiego prawa oraz deklaracjami podjętymi na poziomie Unii Europejskiej i Światowej Organizacji Zdrowia? Na te pytania ma właśnie odpowiadać „Biała Księga AI w praktyce klinicznej”. Rezultaty konsultacji zostaną ogłoszone 14 czerwca 2022 roku podczas konferencji „AI w zdrowiu”.

W inicjatywę zainicjowaną przez koalicję AI w zdrowiu zaangażowały się Grupa Robocza ds. Sztucznej Inteligencji przy Kancelarii Prezesa Rady Ministrów, a radę naukową „Białej Księgi” tworzą przedstawiciele m.in. Ministerstwa Zdrowia, Rzecznika Praw Pacjenta, Naczelnej Izby Lekarskiej, Okręgowej Izby Lekarskiej w Warszawie oraz uczelni wyższych. Partnerami przedsięwzięcia są również firmy komercyjne: m.in. Abbott, Comarch, IQVIA, Lux Med, Medicover i Microsoft.

Sztuczna inteligencja już tu jest

Będzie to pierwszy tego rodzaju dokument w Polsce. Wcześniej wytyczne dotyczące stosowania AI w medycynie przedstawiła Światowa Organizacja Zdrowia (WHO).

Powstały również ogólne regulacje dotyczące reguł stosowania systemów AI. W 2019 roku Rada Organizacji Współpracy Gospodarczej i Rozwoju (OECD) przedstawiła propozycje rekomendacji dotyczących sztucznej inteligencji. Również biuro Komisarza Praw Człowieka Rady Europy wydało zestaw rekomendacji pozwalających umacniać prawa człowieka przez wdrażania zbliżonych technologii: „AI: Unboxing artificial intelligence: 10 steps to protect human rights recommendations”. Własny dokument w kwietniu 2019 roku przedstawiła Komisja Europejska. „Ethics guidelines for trustworthy AI”.

Zdaniem inicjatorów „Białej Księgi” to jednak działania niewystarczające, a dokładniejszych wytycznych domagać się mają sami lekarze. Z algorytmów AI korzysta coraz więcej placówek medycznych – m.in. do wspierania diagnostyki czy wybieranie optymalnej terapii, ale również w zadaniach administracyjnych, nie związanych z praktyką kliniczną. Musi się to jednak odbywać w zgodzie z istniejącymi przepisami prawa dotyczącymi m.in. zasad wykonywania zawodu i prowadzenia działalności leczniczej. Niektóre z wdrożeń systemów AI w polskich placówkach opieki zdrowotnej przedstawia raport sporządzony przez AI w zdrowiu.

Bezpieczeństwo pacjenta i jego danych

Jednym z najważniejszych problemów związanych z algorytmizacją medycyny, na który zwracają uwagę twórcy nowego dokumentu, jest poszanowanie praw pacjenta, a w szczególności zasad prywatności i tajemnicy informacji medycznej. Wiąże się z tym konieczność pseudonimizacji lub anonimizacji danych, ale przede wszystkim samo przekazanie chronionych informacji podmiotom oferującym rozwiązania AI, co obecnie nie jest uregulowane przepisami.

Drugim zagadnieniem, na które zwracają uwagę autorzy jest bezpieczeństwo stosowania takich technologii, odpowiedzialność za potencjalne błędy oraz sprzeczność między deklarowaną personalizacją leczenia, a rzeczywistym dobieraniem terapii na podstawie danych statystycznych.

Sześć zasad WHO

Pod wieloma względami na pytania te odpowiada przedstawiony w połowie 2021 roku dokument Światowej Organizacji Zdrowia zatytułowany „Etyka i zarządzanie sztuczną inteligencją dla zdrowia” („Ethics and governance of artificial intelligence for health”), który ma służyć jako przewodnik dla władz krajowych przy podejmowaniu decyzji o wdrażaniu systemów AI w opiece zdrowotnej. WHO stawia na kwestie etyczne – bezpieczeństwo i godność pacjentów:

  • Ochrona samostanowienia człowieka. W kontekście ochrony zdrowia to człowiek (lekarz) powinien być ostatecznie odpowiedzialny za decyzje kliniczne. Powinna zostać zapewniona prywatność oraz ochrona danych medycznych.
  • Promowanie dobrostanu człowieka oraz bezpieczeństwa i interesu publicznego. Niezbędne jest wprowadzenie metod pomiaru i kontroli jakości w środowisku AI, a projektanci takich algorytmów muszą stosować się do narzuconych przez regulatora wymogów.
  • Gwarancja transparentności, jasności i zrozumiałości. Informacje dotyczące wdrożenia systemów AI powinny być jawne i zrozumiałe. Ich udostępnienie musi również umożliwić publiczną debatę na temat zasad wykorzystywania technologii sztucznej inteligencji.
  • Wspieranie odpowiedzialności. Interesariusze musza być przygotowani na wprowadzenie mechanizmów kontroli jakości oraz reagować na potencjalne sytuacje, w których zastosowanie AI nie przynosi korzyści, lub przynosi szkody dla określonej grupie pacjentów.
  • Zapewnianie równości i inkluzywności. Algorytmy AI powinny być tak zaprojektowane, aby zapewniać korzyści możliwie najszerszej grupie ludzi.
  • Promowanie zrównoważonej i responsywnej sztucznej inteligencji. Systemy sztucznej inteligencji powinny być tak projektowane, aby mieć możliwie jak najmniejszy wpływ na środowisko i być efektywne energetycznie, a wdrażający muszą reagować na związane z nową technologią zaburzenia na rynku pracy.

Zapotrzebowanie na komputerowe wsparcie rośnie

Sztuczna inteligencja w coraz większym stopniu staje się częścią ekosystemu opieki zdrowotnej, a potencjał jej wykorzystania w tym sektorze jest ogromny. Według prognoz Grand View Research, globalny rynek AI w medycynie w latach 2022-2030 będzie się rozwijał w tempie 38,4 proc. CAGR. Według tego samego raportu, w 2021 roku rynek AI w zdrowiu szacowany był na 10,5 mld dolarów, a jego najistotniejszymi segmentami były badania kliniczne, chirurgia robotyczna, diagnostyka i zadania administracyjne (niemedyczne).

To nie tylko efekt pandemii COVID-19, która dała silny bodziec do transformacji cyfrowej całego systemu opieki zdrowotnej. To również skutek procesów trwających od wielu lat i od pandemii niezależnych, takich jak cyfryzacja danych medycznych, budowa dużych zbiorów danych i przenoszenie ich do chmury. Przyczynami rozwoju AI w zdrowiu są również presja na obniżenie kosztów ochrony zdrowia, niedostatek kadr i przenoszenie wielu aspektów życia pacjentów ze świata realnego do wirtualnego.

Piotr Kościelniak
Dziennikarz specjalizujący się w popularyzacji medycyny i nowych technologii, konsultant ds. wydawniczych

Piotr Kościelniak kierował grupą magazynów popularnonaukowych Focus w wydawnictwie Burda Media Polska, gdzie uruchomił nowe tytuły zajmujące się m.in. medycyną, nowymi technologiami, psychologią i historią. Wcześniej kierował działem Nauki w dzienniku „Rzeczpospolita”, w ramach którego tworzył m.in. Rzecz o Zdrowiu, Styl Życia, a także Ranking Szpitali. Laureat nagród dla popularyzatorów nauki i problematyki medycznej.