Diagnostyka 2.0. Jak algorytmy sztucznej inteligencji pomogą lekarzom

14-07-2020 / Rafał Pikuła
Human body and communication network concept.

Szacuje się, że błędy w diagnozie mogą być odpowiedzialne nawet za 10 proc. zgonów pacjentów. Jak poprawnie odczytywać zdjęcia medyczne? Czy sztuczna inteligencja może być rozwiązaniem?

W ostatnich latach postęp technologiczny w sektorze ochrony zdrowia przyśpieszył. Najnowsze analizy przewidują, że do 2025 roku wydatki na AI w służbie zdrowie urosną do 41,3 mld dolarów w skali świata. Dotyczy to szerokich obszarów zdrowia, od automatycznej diagnostyki, monitorowanie pacjentów oraz badań nad szczepionkami i nowymi lekami, ale w tym tekście skupimy się na diagnostyce obrazowej. Po pierwsze: jest ona kluczowa w leczeniu. Po drugie: w obszarze diagnostyki obrazowej postęp związany z zastosowaniem sztucznej inteligencji jest szczególnie zauważalny.

Kluczowe jest tutaj uczenie maszynowe, które umożliwia automatyzację diagnoz i zwiększenie ich pewności. To właśnie uczenie maszynowe jest siłą napędową technologii rozpoznawania obrazu, a badanie obrazu jest kluczem do jakościowej diagnozy. Im więcej danych, tym więcej „paliwa” dla uczącego się algorytmu. Im więcej nauki, tym skuteczniejsza diagnoza. Przyśpieszenie technologiczne i cyfryzacja sektora ochrony zdrowia dostarczają wspominanego „paliwa”. Dlatego można spodziewać się wykładniczego wzrostu jakości diagnostyki obrazowej wspieranej przez AI, jak i pojawienie się nowych, ciekawych technologii.

W praktyce

Wróćmy pamięcią do roku 2012. Wówczas w  konkursie na rozpoznawanie obrazu ImageNet wygrała sieć neuronowa AlexNet. Algorytm był pierwszą implementacją konwolucyjnej sieci neuronowej (CNN) z użyciem naprawdę szybkiego procesora. Sukces AlexNet rozpoczął rewolucję w rozwoju systemów rozpoznawania obrazów wykorzystujących tzw. głębokie uczenie (Deep Neural Networks, DNN). Pierwszą specjalizacją, gdzie odniesiono imponujące wyniki była radiologia.  W 2017 naukowcy z Uniwersytetu Stanforda stworzyli algorytm CheXNet, który był w stanie precyzyjnie diagnozować 14 schorzeń na podstawie analizy zdjęć rentgenowskich. W przypadku zapalenia płuc wyniki były trafniejsze, niż rezultat pracy doświadczonego radiologa.

W tym samym roku algorytm głębokiego uczenia z Uniwersytetu Stanforda identyfikował nowotwory skóry równie dobrze, co doświadczony specjalista. Aby to osiągnąć program przeanalizował ponad 129 tys. zdjęć medycznych obrazujących ponad 2 tys. różnych schorzeń. 

To co rozpoczęli Amerykanie, z sukcesami rozwijają Chińczycy. Przykładem jest algorytm BioMind z 2018 roku. Chińskie rozwiązanie w teście diagnostycznym wypadło lepiej niż grono 15 wybitnych ekspertów.  Maszyna zidentyfikowała poprawnie 87 proc. z 225 przypadków w ciągu 15 minut, podczas gdy ludzkiemu zespołowi zajęło to dużo więcej czasu i udało się trafnie zdiagnozować zaledwie 66 proc. przypadków. Kolejną rundą starcia było rozpoznanie krwotocznych udarów mózgu. BioMind wskazał 83 proc. trafnie, podczas gdy ludzie zaledwie 63 proc.

Sukces chińskiego algorytmu ma podłoże … polityczne. Po prostu – w przeciwieństwie do Amerykanów – badacze z Państwa Środka nie mieli problemów z dostępem do danych osobowych, których w tamtejszej kulturze nie chroni się tak, jak w naszej. BioMind przeanalizował tysiące zdjęć rzeczywistych przypadków z pekińskich szpitali.

Innym ciekawym rozwiązaniem są technologie do tomografii komputerowej, wprowadzone na rynek przez firmy NVIDIA, Aidoc czy Siemens. Nie są to jednak powszechne rozwiązania, warto wspomnieć, że najpopularniejsze – dostarczane przez Aidoc – dostępne jest na tę chwilę w ledwie 100 szpitalach.

Także technologiczni giganci rozwijają narzędzia z zakresu diagnostyki obrazowej. Należąca do Google’a firma DeepMind opracowała algorytm służący do diagnostyki nowotworów głowy i szyi na podstawie zdjęć. Oprogramowanie automatycznie odróżniania tkanki zdrowe od nowotworowo zmienionych, co pozwala na bardziej precyzyjne zaplanowanie radioterapii. Firma Microsoft prowadzi swój projekt Hanover, którego celem jest personalizacja terapii nowotworów. Inteligentny program na podstawie danych zawartych w bazie medycznej PubMed każdorazowo dostarcza informacji na temat preferowanej metody leczenia nowotworu, indywidualnie dostosowanej do danego pacjenta.

Badania nad sztuczną inteligencją w analizie obrazów tomografii komputerowej (TK) klatki piersiowej prowadzi również polski startup BrainScan.ai. Narzędzia oferowane przez tę firmę okazały się niezwykle interesujące w kontekście obecnej epidemii. Zastosowane głębokie sieci neuronowe są w stanie wychwycić bardzo subtelne różnice w obrazach i dzięki temu pomóc radiologom w szybszym i skuteczniejszym diagnozowaniu pacjentów z COVID-19. Startup otrzymał już dotację z Agencji Badań Medycznych (nie jest znana pełna kwota, choć jej maksymalny poziom to 5 mln złotych).

– Potrzebę zastosowania wyników naszych badań w diagnostyce COVID-19 wskazali zarówno lekarze radiolodzy, jak i lekarze innych specjalności, świadomi problemów z testami genetycznymi – podkreślał w komunikacie prasowym prezes firmy BrainScan.ai, Robert Kitłowski. – W wielu szpitalach na północy Włoch nasze rozwiązanie stało się ważnym narzędziem diagnostycznym podczas epidemii SARS-CoV-2.

Perspektywa rozwoju

Jak wskazuje raport francuskiej agencji badawczej Yole dotyczący badań nad wykorzystaniem AI do celów medycznych, od roku 2010 wydano ponad 2 mld dolarów. Według analityków Yole skumulowany roczny wskaźnik wzrostu na lata 2020–2025 będzie wynosił aż 36 proc.. To oznacza niezwykle dynamiczne przyśpieszenie, jedno z największych w obszarze IT.

Taki postęp nie powinien dziwić. W końcu właściwa diagnostyka jest konieczna i bez niej nie ma co myśleć o prawidłowym leczeniu. Dzięki niej można nie tylko znacznie poprawić skuteczność w leczeniu wielu chorób, ale również zaoszczędzić czas i środki przeznaczone na jednego pacjenta. Same korzyści. Dla lekarza, pacjenta i biznesu.