Sztuczna inteligencja w medycynie: wytyczne WHO

Sztuczna inteligencja niesie wielkie szanse rozwoju systemu opieki zdrowotnej, wiążą się z nia jednak ogromne zagrożenia - twierdzą autorzy raportu WHO / Busbus, Rawpixel

Sztuczna inteligencja niesie wielkie szanse rozwoju systemu opieki zdrowotnej, wiążą się z nią jednak ogromne zagrożenia – twierdzą autorzy raportu Światowej Organizacji Zdrowia.

Etyka i prawa człowieka muszą stanowić fundament dla projektowanych systemów sztucznej inteligencji przeznaczonych dla ochrony zdrowia. Sześć podstawowych zasad zarządzania wykorzystaniem AI w tej dziedzinie opublikowała właśnie Światowa Organizacja Zdrowia (WHO). Są to:

  • Ochrona samostanowienia człowieka
  • Promowanie dobrostanu człowieka oraz bezpieczeństwa i interesu publicznego
  • Gwarancja transparentności, jasności i zrozumiałości
  • Wspieranie odpowiedzialności
  • Zapewnianie równości i inkluzywności
  • Promowanie zrównoważonej i responsywnej sztucznej inteligencji  

Systemy sztucznej inteligencji już teraz są wykorzystywane w wielu krajach świata do diagnostyki medycznej, analizowania wyników badań obrazowych i wsparcia w doborze optymalnej ścieżki terapeutycznej dla indywidualnych pacjentów. Algorytmy uczenia maszynowego używane są także do projektowania nowych leków, poszukiwania nowych celów terapeutycznych i wirtualnego testowania skuteczności cząsteczek.

Pandemia COVID-19 sprawiła, że AI znalazła również zastosowanie w analizach związanych ze zdrowiem publicznym – m.in.  zarządzeniem systemem ochrony zdrowia, czy monitorowaniem chorób zakaźnych. Wsparcie algorytmów jest również używane na potrzeby wstępnego triażu pacjentów z podejrzeniem zakażenia wirusem SARS-CoV-2. Ograniczenia w kontaktach społecznych i dostępie do usług medycznych sprawiły, że coraz częściej połączenie technologii mobilnych i systemów sztucznej inteligencji wykorzystywane jest do monitorowania stanu osób formalnie „zdrowych”, ale chcących aktywnie dbać o swój dobrostan.

Wsparcie ze strony algorytmów AI umożliwia również lepszy dostęp do usług zdrowotnych mieszkańcom terenów niezurbanizowanych i odległych od dużych centrów medycznych – przypomina Światowa Organizacja Zdrowia. Opublikowany przez WHO dokument zatytułowany „Etyka i zarządzanie sztuczną inteligencją dla zdrowia” („Ethics and governance of artificial intelligence for health”) wskazuje, że nie należy przeceniać możliwości AI, szczególnie wówczas, gdy wdrażanie takiej technologii odbywa się kosztem inwestycji w celu upowszechnienia dostępu do ochrony zdrowia.

– Jak każda nowa technologia, sztuczna inteligencja ma ogromny potencjał poprawy dostępu do usług zdrowotnych dla milionów ludzi. I jak każda nowa technologia może zostać nadużyta i spowodować krzywdę ludzką – powiedział dr Tedros Adhanom Ghebreyesus, dyrektor generalny Światowej Organizacji Zdrowia. – Ten dokument jest cennym przewodnikiem dla władz państw, które chcą uzyskać jak najwięcej korzyści z wprowadzenia AI, minimalizując przy tym ryzyko i omijając potencjalne pułapki.

Autorzy raportu WHO podkreślają, że skierowany jest on głównie do przedstawicieli strony publicznej: ministerstw zdrowia, agencji regulujących rynek oraz do legislatorów, których zadaniem jest wdrażanie technologii w celu poprawy dobrostanu obywateli. Z wytycznych i przykładów przytaczanych przez ekspertów skorzystają również podmioty komercyjne oraz naukowcy, badacze i pracownicy ochrony zdrowia.

Lista zagrożeń

Raport jest efektem trwających 18 miesięcy prac i dyskusji ekspertów specjalizujących się w dziedzinach etyki, technologii cyfrowych, legislacji i ochrony praw człowieka, a także przedstawicieli ministerstw zdrowia z różnych państw (wśród autorów i zaproszonych ekspertów brakuje jednak Polaków).

Dokument wskazuje m.in., że nadzieje łączone z wprowadzeniem algorytmów sztucznej inteligencji i uczenia maszynowego do medycyny i – szerzej – ochrony zdrowia wiążą się z pewnymi zagrożeniami. Dokument wymienia wśród tych zagrożeń nieetyczne zbieranie informacji i ich wykorzystywanie w celach innych niż dobro pacjenta oraz cyberbezpieczeństwo.

„Fundamenty praw pacjenta wymieniane w Powszechnej Deklaracji Praw Człowieka, takie jak godność, ochrona tajemnicy lekarskiej, prawo do informacji i świadomego podejmowania decyzji mogą zostać dramatycznie przedefiniowane lub podważone przez wprowadzenie nowych technologii” – twierdzą autorzy dokumentu. „Pogoń za danymi, niezależnie od tego, czy czynią to rządy, czy firmy prywatne, podważa prawo jednostek do prywatności (…) a co za tym idzie ogranicza prawo do pełnego korzystania z praw człowieka, praw obywatelskich i politycznych”.

Autorzy powołują się również na wytyczne Wysokiego komisarza Narodów Zjednoczonych do spraw praw człowieka z marca 2020 roku dotyczące wykorzystania sztucznej inteligencji. Dokument ten zauważa potencjalne korzyści wynikające ze stosowania AI, ostrzega jednak przed dehumanizacją opieki zdrowotnej, ograniczeniem samodzielności i autonomii osób starszych i zagrożeniem dla prywatności i bezpieczeństwa danych.

Problemem może być również nieświadome i niezamierzone wyposażanie algorytmów w zestawy danych, które mogą powodować dyskryminację niektórych osób. Jako przykład eksperci zaangażowani w tworzenie raportu podają sytuacje, gdy system AI jest uczony i trenowany na zestawach danych uzyskanych w zamożnych krajach Zachodu. Tak przygotowany system może nie sprawdzać się w diagnostyce i terapii osób o innych cechach biologicznych zamieszkujących kraje o niższym poziomie zamożności. W tym przypadku inwestycje w AI nie dawałyby oczekiwanych korzyści. Autorzy raportu określają to jako „kolonializm danych” i wskazują, że podobne sytuacje, będące efektem wadliwego treningu algorytmów zdarzają się już obecnie (np. systemu rozpoznawania raka skóry nie działają lub działają słabiej u osób innych niż białe).

Raport zwraca również uwagę na dysproporcje w kompetencjach cyfrowych profesjonalistów medycznych w różnych regionach świata. Wdrażanie sztucznej inteligencji tam, gdzie te umiejętności są niższe, a infrastruktura słabiej rozwinięta wymaga dodatkowych inwestycji i szkoleń pracowników.

„Wiele spośród największych firm technologicznych świata inwestuje w zbieranie i analizowanie danych medycznych i algorytmy AI. Rozwój tej technologii na rynku usług zdrowotnych może doprowadzić do oferowania usług medycznych w sposób nieuregulowany i nieuporządkowany, co stanowić będzie wyzwanie dla rządów krajowych. Dlatego niezbędny jest legislacyjnie wprowadzony mechanizm nadzoru gwarantujący, że działania sektora prywatnego w tej dziedzinie będą transparentne i prowadzone w sposób odpowiedzialny” – napisała w przedmowie do raportu dr Soumya Swaminathan, dyrektor naukowa WHO.

Sześć zasad WHO

Publiczne i prywatne inwestycje w tym obszarze nowych technologii są kluczowe dla rozwoju nowych, doskonalszych usług zdrowotnych – podkreślają autorzy raportu. Jednak nieuregulowane wykorzystanie AI narazi prawa pacjentów i całych społeczności na komercyjne działania technologicznych gigantów zainteresowanych jedynie zyskiem. Dlatego – sugeruje WHO – konieczny jest systemowy, rządowy nadzór nad wykorzystaniem sztucznej inteligencji i podobnych technologii. Nadzór ten powinien być realizowany na każdym etapie projektowania, wdrażania i eksploatacji systemów AI.

Jak wyobrażają to sobie eksperci zaproszeni przez WHO do stworzenia raportu? Opracowali oni sześć fundamentalnych zasad, które mają ułatwić ocenę technologii AI wdrażanych w obszarze zdrowia:

  • Ochrona samostanowienia człowieka. W kontekście ochrony zdrowia to człowiek (lekarz) powinien być ostatecznie odpowiedzialny za decyzje kliniczne. Powinna zostać zapewniona prywatność oraz ochrona danych medycznych. To również człowiek (pacjent) powinien udzielać świadomej zgody na wykorzystywanie danych w ramach obowiązujących schematów ochrony danych osobowych.
  • Promowanie dobrostanu człowieka oraz bezpieczeństwa i interesu publicznego. Niezbędne jest wprowadzenie metod pomiaru i kontroli jakości w środowisku AI, a projektanci takich algorytmów muszą stosować się do narzuconych przez regulatora wymogów co do bezpieczeństwa, staranności i skuteczności w określonych wskazaniach medycznych.
  • Gwarancja transparentności, jasności i zrozumiałości. Raport sugeruje, że informacje dotyczące wdrożenia systemów AI powinny być jawne i zrozumiałe. Ich udostępnienie musi również umożliwić publiczną debatę na temat zasad wykorzystywania technologii sztucznej inteligencji w tym konkretnym zastosowaniu.
  • Wspieranie odpowiedzialności. Interesariuszemusza być przygotowani na wprowadzenie mechanizmów kontroli jakości oraz reagować na potencjalne sytuacje, w których zastosowanie AI nie przynosi korzyści, lub przynosi szkody dla określonej grupie pacjentów. Wdrażający tę technologię muszą również zadbać, by była ona wykorzystywana przez wyszkolony personel oraz we wskazaniach, do których została zaprojektowana.
  • Zapewnianie równości i inkluzywności. Algorytmy AI powinny być tak zaprojektowane, aby zapewniać korzyści możliwie najszerszej grupie ludzi, niezależnie od wieku, płci, zamożności, rasy, orientacji seksualnej i innych wartości znajdujących się pod ochroną.
  • Promowanie zrównoważonej i responsywnej sztucznej inteligencji. Systemy sztucznej inteligencji powinny być tak projektowane, aby mieć możliwie jak najmniejszy wpływ na środowisko i być efektywne energetycznie. Zarówno strona publiczna, jak i prywatna powinny być gotowe na dające się przewidzieć zaburzenia na rynku pracy związane z wprowadzaniem technologii AI, automatyzacją niektórych zadań,  co za tym idzie redukcją stanowisk. Oznacza to, że interesariusze powinni pomagać pracownikom ochrony zdrowia zaadaptować się do nowych warunków np. przez system szkoleń.

Etyka algorytmów w punktach

Rekomendacje WHO nie są pierwszym dokumentem opisującym pożądane zasady budowania i stosowania systemów sztucznej inteligencji. W maju 2019 roku Rada Organizacji Współpracy Gospodarczej i Rozwoju (OECD) przedstawiła propozycję rekomendacji dotyczących AI, mających wskazywać państwom członkowskim kierunki legislacyjne.

W tym samym roku biuro Komisarza Praw Człowieka Rady Europy wydało zestaw rekomendacji pozwalających umacniać prawa człowieka przez wdrażania technologii sztucznej inteligencji „AI: Unboxing artificial intelligence: 10 steps to protect human rights recommendations”. Własny dokument w kwietniu 2019 roku przedstawiła również Komisja Europejska. „Ethics guidelines for trustworthy AI” jest efektem pracy 52 naukowców zaproszonych do współpracy przez KE oraz niemal półrocznego procesu konsultacji publicznych. Dokument ten można pobrać w języku polskim ze strony Komisji. Podobne ramowe rekomendacje mają również m.in. Chiny i Japonia.

Piotr Kościelniak
Dziennikarz specjalizujący się w popularyzacji medycyny i nowych technologii, konsultant ds. wydawniczych

Piotr Kościelniak kierował grupą magazynów popularnonaukowych Focus w wydawnictwie Burda Media Polska, gdzie uruchomił nowe tytuły zajmujące się m.in. medycyną, nowymi technologiami, psychologią i historią. Wcześniej kierował działem Nauki w dzienniku „Rzeczpospolita”, w ramach którego tworzył m.in. Rzecz o Zdrowiu, Styl Życia, a także Ranking Szpitali. Laureat nagród dla popularyzatorów nauki i problematyki medycznej.