Raport Parlamentu Europejskiego o sztucznej inteligencji w medycynie
Wykorzystanie AI w medycynie i opiece zdrowotnej stało się w ostatnich latach przedmiotem badań naukowych, debat politycznych i celem dla aktywistów społecznych. Choć sztuczna inteligencja z pewnością może zostać wykorzystana dla podniesienia jakości opieki, niesie ze sobą nowe zagrożenia, które należy przewidzieć i im przeciwdziałać – piszą autorzy raportu sporządzonego przez Biuro Analiz Parlamentu Europejskiego.
Celem dokumentu jest zidentyfikowanie możliwych obszarów zastosowań AI w medycynie, a także opisanie potencjalnych klinicznych, społecznych i etycznych zagrożeń związanych z potencjalnymi błędami algorytmów, a także brakiem przejrzystości oprogramowania, wadliwą interpretacją danych i naruszeniami prywatności.
Raport „Sztuczna inteligencja w ochronie zdrowia. Zastosowania, zagrożenia, skutki społeczne” został opublikowany 1 czerwca 2022 r. i jest dziełem Panelu ds. Przyszłości Nauki Biura Analiz Parlamentu Europejskiego (EPRS). Jego autorami są naukowcy specjalizujący się w zdrowiu publicznym oraz technologii i matematyce z placówek naukowych w Hiszpanii, Wielkiej Brytanii i Belgii. Dokument ma nie tylko służyć opisaniu doświadczeń z wdrażania algorytmów sztucznej inteligencji do opieki zdrowotnej, ale przede wszystkim służyć jako zbiór wytycznych dla producentów takich rozwiązań, menedżerów ochrony zdrowia i decydentów, lekarzy oraz samych pacjentów pozwalających zminimalizować ryzyka i skoncentrować się na korzyściach, jakie niesie nowa technologia.
Wdrożenia AI w medycynie i opiece zdrowotnej
Autorzy raportu zwracają uwagę na ogromny potencjał AI w kontekście starzejącego się społeczeństwa, rosnącej liczby osób cierpiących na choroby przewlekłe, przy jednoczesnych problemach systemów opieki zdrowotnej, niedoborów kadr i rosnących nierówności w dostępie do usług medycznych. Naukowcy podkreślają też, że korzyści z wdrażania sztucznej inteligencji nie ograniczają się do zastosowań klinicznych, ale mogą obejmować badania biomedyczne (odkrywania i testowanie nowych leków), administrację oraz zdrowie publiczne.
Wśród najważniejszych pól zastosowań w praktyce klinicznej, dokument Parlamentu Europejskiego wymienia m.in. takie dziedziny jak radiologia, kardiologia, medycyna ratunkowa, chirurgia, przewidywanie ryzyka wystąpienia chorób, interwencje opieki domowej i zdrowie psychiczne.
W tej beczce miodu znalazła się jednak i łyżka dziegciu. Pomimo obiecujących przykładów przytaczanych w dokumencie EPRS, autorzy zwracają również uwagę, że generalnie obietnice związane z AI nie zostały jeszcze w pełni zrealizowane. Wstępne wyniki zastosowania tych technologii nie są tak solidne, jak przewidywano i trudno jest ocenić ich rzeczywisty wpływ – uważają eksperci EPRS. Przytaczają również opinie naukowców świadczące, że potencjał AI jako całości został w dużej mierze przeszacowany, praktycznie bez danych wykazujących faktyczną poprawę wyników pacjentów.
Zagrożenia dla pacjentów
Więcej uwagi autorzy poświęcili potencjalnym ryzykom związanym z wykorzystywaniem sztucznej inteligencji. Zidentyfikowali siedem obszarów (lub scenariuszy), które mogą skutkować szeroko rozumianymi szkodami dla pacjentów i systemu ochrony zdrowia. Eksperci uważają, że w szczególnie rażących przypadkach błędów zaufanie do sztucznej inteligencji zostanie podważone – i to zarówno w społeczeństwie, jak i wśród lekarzy. Może to doprowadzić do odrzucenia tej technologii.
Siedem najistotniejszych zagrożeń to:
- Szkoda pacjenta spowodowana błędami AI, które mogą wynikać z niewłaściwego treningu, źle dobranych danych, czy różnicami między rzeczywistym otoczeniem klinicznym, a otoczeniem, w którym AI była konstruowana. Skutkiem takich błędów może być nieprawidłowa diagnoza, co prowadzi do niewłaściwej terapii, złej priorytetyzacji pacjenta, a w efekcie nawet do jego śmierci.
- Niewłaściwe użycie narzędzi AI spowodowane niewystarczającą edukacją pacjentów i lekarzy, korzystaniem z niesprawdzonych narzędzi online oraz wykorzystaniem sztucznej inteligencji bez świadomości kontekstu, w jakim może być ona stosowana.
- Ryzyko stronniczości i nierówności algorytmów AI oparte na płci, grupie etnicznej, statusie socjoekonomicznym, wieku czy miejscu zamieszkania to jeden z największych problemów podczas tworzenia systemów sztucznej inteligencji oraz trenowania ich na źle skonstruowanych zbiorach danych.
- Brak przejrzystości jest, zdaniem autorów dokumentu, jednym z istotniejszych wyzwań podczas projektowania i oceny systemów AI. Przejrzystość powinna obejmować nie tylko proces „produkcji” systemów AI, ale również proces podejmowania przez te systemy decyzji.
- Prywatność i bezpieczeństwo danych szczególnie wrażliwych jest istotne w kontekście wykorzystywania informacji o pacjencie bez jego wiedzy i świadomie wyrażonej zgody. Ponieważ dane takie w celu analizy przez algorytmu AI musza być przechowywane w chmurze, problemem mogą być również cyberataki i wycieki dokumentacji medycznej.
- Luki w odpowiedzialności AI pozostają – przyznają autorzy raportu – nierozwiązanym problemem w krajowych i międzynarodowych systemach prawnych. W przypadku błędu sztucznej inteligencji określenie stopnia winy twórcy oprogramowania, dostawcy danych i lekarza może być trudne.
- Trudności we wdrożeniach systemów AI wynikają z niedostosowania infrastruktury technologicznej krajowych systemów opieki zdrowotnej, braku interoperacyjności, niedoskonałości zbiorów danych, luk w elektronicznej dokumentacji medycznej oraz braku procedur włączających AI w procesy diagnostyczne i terapeutyczne.
Ocena ryzyka i rozwiązania systemowe
Raport przedstawia również pewne pomysły mogące przysłużyć się rozwiązaniu wspomnianych problemów. Dokument przypomina m.in. przedstawioną w 2021 roku przez Komisję Europejska propozycje regulacji dla sztucznej inteligencji bazującej na czterech kategoriach (od minimalnego ryzyka po zastosowania zakazane ze względu na ich niezgodność z zasadami demokracji i prywatności).
Autorzy sugerują m.in. zastosowanie tzw. Listy kontrolnej sztucznej inteligencji godnej zaufania (ALTAI) przedstawionej w 2020 roku przez Komisję Europejską. Została ona opracowana przez grupę ekspertów wysokiej szczebla ds. sztucznej inteligencji (AI HLEG) i ma na celu identyfikację ryzyka, ocenę wiarygodności oraz zgodności systemów AI z tzw. europejskimi wartościami. ALTAI zawiera listę pytań zamkniętych w siedmiu sekcjach. Niezbędne dokumenty można przejrzeć pod adresem https://altai.insight-centre.org/.
Autorzy dokumentu podkreślają, że model ALTAI nie jest przeznaczony wyłącznie dla rozwiązań w opiece zdrowotnej. Ta zaś wymaga dodatkowych mechanizmów bezpieczeństwa, takich jak m.in. zgodność z wytycznymi organizacji międzynarodowych, wdrażanie odkryć opisywanych w specjalistycznej literaturze, niedyskryminacja, przejrzystość itp. Również europejskie regulacje rynku medycznego MDR oraz IVDR przyjęte w 2017 roku nie są wystarczające, ponieważ powstały w czasach, gdy sztuczna inteligencja nie była jeszcze tak rozpowszechniona jak obecnie. Dlatego konieczne jest – zdaniem autorów raportu – stworzenie nowego, holistycznego sposobu oceny ryzyka związanego z wdrażaniem AI w medycynie.
To zaś powinno pociągnąć za sobą opracowanie wytycznych i standardów (certyfikatów) przeznaczonych dla rozwiązań AI. Autorzy widzą tu również rolę dla lekarzy, organizacji pacjenckich, naukowców i menedżerów, którzy powinni nadzorować użycie AI w medycynie. Powinni mieć oni również liczący się głos już na etapie tworzenia oprogramowania.
Eksperci sugerują nawet wprowadzenie nowego rodzaju certyfikatu – „paszportu AI” – opisującego model algorytmu, wprowadzone dane, ocenę, pola zastosowań oraz zasady obsługi. Taki paszport umożliwiałby wykorzystanie systemów sztucznej inteligencji w różnych obszarach zdrowia i różnych krajach. Dokument potwierdza zresztą, że w krajach Unii Europejskiej istnieją nadal ogromne różnice w wykorzystaniu nowych technologii, w tym również AI.
Cały dokument EPRS można pobrać ze strony Parlamentu Europejskiego.
Dziennikarz specjalizujący się w popularyzacji medycyny i nowych technologii, konsultant ds. wydawniczych
Piotr Kościelniak kierował grupą magazynów popularnonaukowych Focus w wydawnictwie Burda Media Polska, gdzie uruchomił nowe tytuły zajmujące się m.in. medycyną, nowymi technologiami, psychologią i historią. Wcześniej kierował działem Nauki w dzienniku „Rzeczpospolita”, w ramach którego tworzył m.in. Rzecz o Zdrowiu, Styl Życia, a także Ranking Szpitali. Laureat nagród dla popularyzatorów nauki i problematyki medycznej.
Wydarzenia
[tribe_mini_calendar]Polecamy
Raport Parlamentu Europejskiego o sztucznej inteligencji w medycynie
Wykorzystanie AI w medycynie i opiece zdrowotnej stało się w ostatnich latach przedmiotem badań naukowych, debat politycznych i celem dla aktywistów społecznych. Choć sztuczna inteligencja z pewnością może zostać wykorzystana dla podniesienia jakości opieki, niesie ze sobą nowe zagrożenia, które należy przewidzieć i im przeciwdziałać – piszą autorzy raportu sporządzonego przez Biuro Analiz Parlamentu Europejskiego.
Cyfrowe terapeutyki – najważniejsze bariery rozwoju
Ekosystem cyfrowych terapeutyków rozwija się błyskawicznie, jednak ich przydatność i wykorzystanie w procesie terapeutycznym ciągle nie jest zbyt wielkie. Dzieje się tak za sprawą kilku problemów, które wskazywali uczestnicy debaty HealthTechBuild.
Rekordowy wzrost inwestycji w technologie medyczne
Globalny rynek e-zdrowia rośnie jak na drożdżach. W tym roku firmy zajmujące się tą branżą zyskały łącznie od inwestorów 51,3 mld dolarów. Liderem w tej dziedzinie są Stany Zjednoczone.
Raport Boston Consulting: fundamenty nowej normalności
Nowa normalność będzie oznaczać opiekę bez ograniczeń czasu i miejsca – sugerują autorzy raportu przygotowanego przez Boston Consulting Group Digital Ventures. Kluczowe znaczenie dla rozwoju nowego modelu opieki zdrowotnej będą miały trzy obszary: AI, femtech oraz technologie koncentrujące się na zdrowiu psychicznym.