Raport Parlamentu Europejskiego o sztucznej inteligencji w medycynie

/rawpixel.com

Wykorzystanie AI w medycynie i opiece zdrowotnej stało się w ostatnich latach przedmiotem badań naukowych, debat politycznych i celem dla aktywistów społecznych. Choć sztuczna inteligencja z pewnością może zostać wykorzystana dla podniesienia jakości opieki, niesie ze sobą nowe zagrożenia, które należy przewidzieć i im przeciwdziałać – piszą autorzy raportu sporządzonego przez Biuro Analiz Parlamentu Europejskiego.

Celem dokumentu jest zidentyfikowanie możliwych obszarów zastosowań AI w medycynie, a także opisanie potencjalnych klinicznych, społecznych i etycznych zagrożeń związanych z potencjalnymi błędami algorytmów, a także brakiem przejrzystości oprogramowania, wadliwą interpretacją danych i naruszeniami prywatności.

Raport „Sztuczna inteligencja w ochronie zdrowia. Zastosowania, zagrożenia, skutki społeczne” został opublikowany 1 czerwca 2022 r. i jest dziełem Panelu ds. Przyszłości Nauki Biura Analiz Parlamentu Europejskiego (EPRS). Jego autorami są naukowcy specjalizujący się w zdrowiu publicznym oraz technologii i matematyce z placówek naukowych w Hiszpanii, Wielkiej Brytanii i Belgii. Dokument ma nie tylko służyć opisaniu doświadczeń z wdrażania algorytmów sztucznej inteligencji do opieki zdrowotnej, ale przede wszystkim służyć jako zbiór wytycznych dla producentów takich rozwiązań, menedżerów ochrony zdrowia i decydentów, lekarzy oraz samych pacjentów pozwalających zminimalizować ryzyka i skoncentrować się na korzyściach, jakie niesie nowa technologia.

Wdrożenia AI w medycynie i opiece zdrowotnej

Autorzy raportu zwracają uwagę na ogromny potencjał AI w kontekście starzejącego się społeczeństwa, rosnącej liczby osób cierpiących na choroby przewlekłe, przy jednoczesnych problemach systemów opieki zdrowotnej, niedoborów kadr i rosnących nierówności w dostępie do usług medycznych. Naukowcy podkreślają też, że korzyści z wdrażania sztucznej inteligencji nie ograniczają się do zastosowań klinicznych, ale mogą obejmować badania biomedyczne (odkrywania i testowanie nowych leków), administrację oraz zdrowie publiczne.

Wśród najważniejszych pól zastosowań w praktyce klinicznej, dokument Parlamentu Europejskiego wymienia m.in. takie dziedziny jak radiologia, kardiologia, medycyna ratunkowa, chirurgia, przewidywanie ryzyka wystąpienia chorób, interwencje opieki domowej i zdrowie psychiczne.

W tej beczce miodu znalazła się jednak i łyżka dziegciu. Pomimo obiecujących przykładów przytaczanych w dokumencie EPRS, autorzy zwracają również uwagę, że generalnie obietnice związane z AI nie zostały jeszcze w pełni zrealizowane. Wstępne wyniki zastosowania tych technologii nie są tak solidne, jak przewidywano i trudno jest ocenić ich rzeczywisty wpływ – uważają eksperci EPRS. Przytaczają również opinie naukowców świadczące, że potencjał AI jako całości został w dużej mierze przeszacowany, praktycznie bez danych wykazujących faktyczną poprawę wyników pacjentów.

Zagrożenia dla pacjentów

Więcej uwagi autorzy poświęcili potencjalnym ryzykom związanym z wykorzystywaniem sztucznej inteligencji. Zidentyfikowali siedem obszarów (lub scenariuszy), które mogą skutkować szeroko rozumianymi szkodami dla pacjentów i systemu ochrony zdrowia. Eksperci uważają, że w szczególnie rażących przypadkach błędów zaufanie do sztucznej inteligencji zostanie podważone – i to zarówno w społeczeństwie, jak i wśród lekarzy. Może to doprowadzić do odrzucenia tej technologii.

Siedem najistotniejszych zagrożeń to:

  1. Szkoda pacjenta spowodowana błędami AI, które mogą wynikać z niewłaściwego treningu, źle dobranych danych, czy różnicami między rzeczywistym otoczeniem klinicznym, a otoczeniem, w którym AI była konstruowana. Skutkiem takich błędów może być nieprawidłowa diagnoza, co prowadzi do niewłaściwej terapii, złej priorytetyzacji pacjenta, a w efekcie nawet do jego śmierci.
  2. Niewłaściwe użycie narzędzi AI spowodowane niewystarczającą edukacją pacjentów i lekarzy, korzystaniem z niesprawdzonych narzędzi online oraz wykorzystaniem sztucznej inteligencji bez świadomości kontekstu, w jakim może być ona stosowana.
  3. Ryzyko stronniczości i nierówności algorytmów AI oparte na płci, grupie etnicznej, statusie socjoekonomicznym, wieku czy miejscu zamieszkania to jeden z największych problemów podczas tworzenia systemów sztucznej inteligencji oraz trenowania ich na źle skonstruowanych zbiorach danych.
  4. Brak przejrzystości jest, zdaniem autorów dokumentu, jednym z istotniejszych wyzwań podczas projektowania i oceny systemów AI. Przejrzystość powinna obejmować nie tylko proces „produkcji” systemów AI, ale również proces podejmowania przez te systemy decyzji.
  5. Prywatność i bezpieczeństwo danych szczególnie wrażliwych jest istotne w kontekście wykorzystywania informacji o pacjencie bez jego wiedzy i świadomie wyrażonej zgody. Ponieważ dane takie w celu analizy przez algorytmu AI musza być przechowywane w chmurze, problemem mogą być również cyberataki i wycieki dokumentacji medycznej.
  6. Luki w odpowiedzialności AI pozostają – przyznają autorzy raportu – nierozwiązanym problemem w krajowych i międzynarodowych systemach prawnych. W przypadku błędu sztucznej inteligencji określenie stopnia winy twórcy oprogramowania, dostawcy danych i lekarza może być trudne.
  7. Trudności we wdrożeniach systemów AI wynikają z niedostosowania infrastruktury technologicznej krajowych systemów opieki zdrowotnej, braku interoperacyjności, niedoskonałości zbiorów danych, luk w elektronicznej dokumentacji medycznej oraz braku procedur włączających AI w procesy diagnostyczne i terapeutyczne.

Ocena ryzyka i rozwiązania systemowe

Raport przedstawia również pewne pomysły mogące przysłużyć się rozwiązaniu wspomnianych problemów. Dokument przypomina m.in. przedstawioną w 2021 roku przez Komisję Europejska propozycje regulacji dla sztucznej inteligencji bazującej na czterech kategoriach (od minimalnego ryzyka po zastosowania zakazane ze względu na ich niezgodność z zasadami demokracji i prywatności).

Autorzy sugerują m.in. zastosowanie tzw. Listy kontrolnej sztucznej inteligencji godnej zaufania (ALTAI) przedstawionej w 2020 roku przez Komisję Europejską. Została ona opracowana przez grupę ekspertów wysokiej szczebla ds. sztucznej inteligencji (AI HLEG) i ma na celu identyfikację ryzyka, ocenę wiarygodności oraz zgodności systemów AI z tzw. europejskimi wartościami. ALTAI zawiera listę pytań zamkniętych w siedmiu sekcjach. Niezbędne dokumenty można przejrzeć pod adresem https://altai.insight-centre.org/.

Autorzy dokumentu podkreślają, że model ALTAI nie jest przeznaczony wyłącznie dla rozwiązań w opiece zdrowotnej. Ta zaś wymaga dodatkowych mechanizmów bezpieczeństwa, takich jak m.in. zgodność z wytycznymi organizacji międzynarodowych, wdrażanie odkryć opisywanych w specjalistycznej literaturze, niedyskryminacja, przejrzystość itp. Również europejskie regulacje rynku medycznego MDR oraz IVDR przyjęte w 2017 roku nie są wystarczające, ponieważ powstały w czasach, gdy sztuczna inteligencja nie była jeszcze tak rozpowszechniona jak obecnie. Dlatego konieczne jest – zdaniem autorów raportu – stworzenie nowego, holistycznego sposobu oceny ryzyka związanego z wdrażaniem AI w medycynie.

To zaś powinno pociągnąć za sobą opracowanie wytycznych i standardów (certyfikatów) przeznaczonych dla rozwiązań AI. Autorzy widzą tu również rolę dla lekarzy, organizacji pacjenckich, naukowców i menedżerów, którzy powinni nadzorować użycie AI w medycynie. Powinni mieć oni również liczący się głos już na etapie tworzenia oprogramowania.

Eksperci sugerują nawet wprowadzenie nowego rodzaju certyfikatu – „paszportu AI” – opisującego model algorytmu, wprowadzone dane, ocenę, pola zastosowań oraz zasady obsługi. Taki paszport umożliwiałby wykorzystanie systemów sztucznej inteligencji w różnych obszarach zdrowia i różnych krajach. Dokument potwierdza zresztą, że w krajach Unii Europejskiej istnieją nadal ogromne różnice w wykorzystaniu nowych technologii, w tym również AI.

Cały dokument EPRS można pobrać ze strony Parlamentu Europejskiego.

Piotr Kościelniak
Dziennikarz specjalizujący się w popularyzacji medycyny i nowych technologii, konsultant ds. wydawniczych

Piotr Kościelniak kierował grupą magazynów popularnonaukowych Focus w wydawnictwie Burda Media Polska, gdzie uruchomił nowe tytuły zajmujące się m.in. medycyną, nowymi technologiami, psychologią i historią. Wcześniej kierował działem Nauki w dzienniku „Rzeczpospolita”, w ramach którego tworzył m.in. Rzecz o Zdrowiu, Styl Życia, a także Ranking Szpitali. Laureat nagród dla popularyzatorów nauki i problematyki medycznej.