banner

Jak narzędzia sztucznej inteligencji wspierają medycynę

 

Stojak 2 1Obecnie trudno znaleźć dziedzinę życia, w której nie znajduje zastosowania sztuczna inteligencja (ang. Artificial Intelligence, AI). AI doskonale sprawdza się tam, gdzie szybko trzeba poradzić sobie z olbrzymią ilością danych, a zadania są powtarzalne (zatem i nudne!), złożone, ale i wymagają dopasowania do wzoru.
I tak oto AI miałaby dbać o cyberbezpieczeństwo, analizować rynki finansowe i prognozować trendy, automatyzować procesy produkcyjne, optymalizować logistykę dostaw czy wspierać procesy nauczania. Jednak dla przeciętnego użytkownika zdecydowanie kojarzy się z edycją zdjęć i tworzeniem treści w mediach społecznościowych, które nie zawsze spełniają normy etyczne. AI nie wie przecież czym są empatia, odpowiedzialność czy moralność.

Sztuczna inteligencja to gałąź informatyki, której początki sięgają lat 50. XX wieku. Miała analizować dane, rozwiązywać problemy i uczyć się na podstawie doświadczenia. Naszego, ludzkiego doświadczenia. To naszym zadaniem jest dbać o etykę.
Niewątpliwie AI ma ogromy potencjał, ale i jeszcze więcej pułapek, które sami na siebie zastawiamy. A gdyby jednak użyć tego narzędzia mądrze, na przykład w zdrowiu publicznym i medycynie? Czy narzędzia AI wypełnią powierzone zadanie ulepszenia leczenia i czy uzasadniona jest obawa, że niedługo zastąpią lekarzy?

Medyczne kalambury

O wykorzystaniu AI w diagnostyce mówi się dużo, ale oprócz daleko idących planów, dziś w wielu ośrodkach medycznych naprawdę wykorzystywane są algorytmy sztucznej inteligencji. Wciąż podchodzimy do nich nieufnie, ale okazuje się, że AI może być zaskakująco pomocna w stawianiu poprawnych diagnoz. Użycie algorytmów zwiększa wykrywalność (bez wyników fałszywie pozytywnych), bo potrafią zidentyfikować wzorce i niewielkie odchylenia od normy w kontekście całego obrazu klinicznego, które dla ludzkiego oka są niezauważalne. To znacznie ułatwia wybór najlepszej strategii leczenia, dzięki wczesnemu wykryciu pacjentów wysokiego ryzyka i przewidywaniu potencjalnych komplikacji.

Oczywiście, zmorą dzisiejszych czasów są choroby nowotworowe i właśnie one były inspiracją do stworzenia modelu CHIEF (ang. Clinical Histopathology Imaging Evaluation Foundation). Algorytm ten jest szkolony z wykorzystaniem cyfrowych obrazów preparatów mikroskopowych i skanów histopatologicznych tkanek do rozpoznawania cech typowych dla nowotworów. Postępy w szkoleniu są sprawdzane podczas testów detekcji i okazuje się, że CHIEF jest niezłym uczniem – badacze podają, że osiąga wysoką skuteczność (94%) w diagnozowaniu 11 typów nowotworów w przypadku analizy wcześniej nieznanych prób chirurgicznych.
Dodatkowo, CHIEF ma za zadanie przewidywać obecność polimorfizmów genetycznych związanych z nowotworami, na przykład w genie BRAF, w którym zmiana jednego aminokwasu odgrywa istotną rolę w rozwoju raka skóry, tarczycy czy jelita grubego.

Sprawna interpretacja danych genomowych i identyfikacja mutacji umożliwia opracowanie leków celowanych. I chociaż terapie spersonalizowane są bardzo drogie i dla wielu pozostają pieśnią przyszłości, algorytmy AI są zaangażowane również w badania kliniczne i rozwój leków, które dotrą do szerszego grona pacjentów. AI staje się tutaj rekruterem, który wybiera kandydatów do badań klinicznych substancji, które sama zaprojektowała i dla których przeprowadziła symulacje toksyczności i skuteczności in silico.

Systemy AI są dziś legalnie dopuszczone do sprzedaży i stosowane w codziennej praktyce klinicznej jako pomoc diagnostyczna. Do tej pory amerykańska Agencja Żywności i Leków (FDA) zarejestrowała ponad 1000 medycznych urządzeń i programów wykorzystujących AI, głównie w dziedzinie radiologii. Wiele takich programów spełniło również wymagania dyrektyw Unii Europejskiej dotyczących zdrowia, bezpieczeństwa i ochrony środowiska.
Na przykład, amerykański The Guardian donosi o „inteligentnych stetoskopach”, czyli analitycznych urządzeniach wykorzystujących algorytmy AI do przetwarzania dźwięków serca i EKG, by w ciągu kilku sekund zidentyfikować choroby serca (m.in. wady zastawkowe czy zaburzenia rytmu). Urządzenia te przetestowano w badaniach klinicznych i zaczynają być wprowadzane na rynek.

Z kolei w jednym ze szpitali w Londynie diagnozuje się raka skóry z użyciem narzędzia AI, które działa na smartfonie. Przeszkolony pracownik wykonuje zdjęcie (z założoną soczewką dermatoskopową), które automatycznie jest analizowane przez certyfikowaną aplikację. Po około 1-3 minutach algorytm przekazuje decyzję wskazując na brak zagrożenia lub podejrzenie czerniaka (w tym przypadku pacjent trafia pilnie do lekarza). Oczywiście, algorytm jest zaprojektowany tak, aby nie przeoczyć żadnej zmiany, więc charakteryzuje go zwiększona czułość, kosztem niższej swoistości.

Na ostrzu skalpela

AI przydatna ma być także bezpośrednio na stole operacyjnym. W oparciu o nowoczesne techniki obrazowania ma pełnić rolę suflera, który obserwuje i asystuje przy podejmowaniu decyzji, gdzie dokładnie powinna przebiegać linia cięcia (ang. cutting-edge mechanisms). Oczywiście praca AI zaczyna się dużo wcześniej, z dala od sali operacyjnej. Wszystko po to, aby w decydującym dniu operacji algorytm był gotowy na każdy scenariusz.
Trening AI (uczenie maszynowe, ang. machine learning) polega na analizie danych z nagrań zabiegów wykonanych przez zespoły chirurgów oraz z systemów chirurgii robotycznej (np. słynnego robota chirurgicznego da Vinci). Algorytmy uczą się jaki obszar wycięto i porównują te dane z danymi laboratoryjnymi i histopatologicznymi uzyskanymi przed i po operacji.
AI ocenia także technikę operatora, czyli jakie narzędzia, z jaką siłą nacisku i na jaką głębokość zostały użyte. Dzięki temu algorytmy mogą nie tylko wskazać obszary do poprawy na przyszłość, ale i sugerować rozwiązania w czasie rzeczywistym. W analizie obrazów uzyskanych z badań rezonansem magnetycznym, tomografem komputerowym, pozytonowym tomografem emisyjnym (PET) czy USG wykorzystywana jest poddziedzina uczenia maszynowego – uczenie głębokie (ang. deep learning), w której używa się wielowarstwowych sieci neuronowych. Dzięki temu sieć sama uczy się złożonych zależności danych, a im więcej warstw, tym więcej niuansów i abstrakcyjnych cech jest wyłapywanych przez algorytm.

Analiza danych o strukturze przestrzennej uczy AI odróżniać tkankę nowotworową, strefę nacieku i tkankę zdrową, a tym samym tworzyć dokładne mapy obszaru zmienionego chorobowo. W tym zadaniu AI jest znacznie dokładniejsza niż oko radiologa, a precyzyjne oszacowanie ulokowania guza i prawdopodobnej obecności komórek nowotworowych poza widoczną granicą zmiany ułatwia decyzję gdzie i ile tkanki wyciąć. Dziś marginesy są standardowe dla wszystkich (np. 1-2 cm), więc są to rozwiązania, które dążą do spersonalizowanych decyzji na podstawie biologii, lokalizacji oraz agresywności zmiany nowotworowej i tym samym wykluczenia brania przez chirurga zapasu „na ślepo”. Im mniejsze uszkodzenie otaczającej guz zdrowej tkanki, tym szybszy powrót pacjenta do zdrowia.

Nabytą podczas szkolenia wiedzę AI może wykorzystać podczas zabiegu, analizując obrazy z kamery laparoskopowej lub z wykorzystaniem fluorescencji, by opisać architekturę tkanek, ich kolor, unaczynienie, gęstość komórek i regularność powierzchni w czasie rzeczywistym, bez czekania na tradycyjną histopatologię. W tym procesie zastosowanie znajdują ligandy wiążące się bezpośrednio z nowotworem lub, częściej, niespecyficzne barwniki fluorescencyjne, np. zieleń indocyjanowa (ICG).
Ten dożylny barwnik wiąże się z białkami we krwi i emituje jaskrawozielony kolor pod wpływem światła bliskiej podczerwieni, tym samym wizualizując przepływ krwi i inne struktury w organizmie. ICG jest stosowany standardowo m.in. w angiografii, diagnostyce chorób serca i wątroby czy w chirurgii onkologicznej. Wprawdzie nie wiąże się on selektywnie z komórkami nowotworowymi, ale uwidacznia tkanki pośrednio poprzez ukrwienie i przepuszczalność naczyń, które są u guzów znacząco większe. Zdrowa tkanka szybko wypłukuje ICG, natomiast chora zatrzymuje barwnik na dłużej i przez to bardziej intensywnie świeci. Przy barwnikach niespecyficznych brak jednak pewności co się widzi, równie dobrze może to być blizna, stan zapalny lub dobrze unaczyniona tkanka. Zadaniem AI jest odróżnienie szumu od właściwego sygnału z tkanki nowotworowej.

Prymus czy przeciętniak?

Niezależnie od tego jak pilnym uczniem jest AI, wszystko sprowadza się do tego jakie dane mu dostarczymy. My, ludzie. Uczenie maszynowe czy głębokie uczenie nie są możliwe bez olbrzymich zbiorów danych – naprawdę olbrzymich – i to danych doskonale opisanych, z bezbłędnymi diagnozami, wyczerpująco opisanymi danymi klinicznymi, uzupełnionymi o historię choroby, wyniki laboratoryjne i diagnostyczne. Do tego muszą to być dane uzyskane z różnych ośrodków naukowych i leczniczych, z różnych krajów i grup etnicznych, od pacjentów reprezentujących różne grupy wiekowe, styl życia, płeć. W trakcie treningu i walidacji modelu CHIEF wykorzystano ponad 60 000 obrazów całych preparatów histopatologicznych z 19 różnych narządów. Dużo czy mało?

AI pełni funkcję doradczą i zapewne jest to jedyny realny model. Nieważne ile danych przeanalizuje AI, nigdy nie powinna zastąpić lekarza, chirurga, naukowca, człowieka. AI to narzędzie, które nie powinno stać się autonomicznym decydentem. Dziś ostateczna decyzja zawsze należy do lekarza. Bo oprócz wiedzy z baz danych ma on doświadczenie, a przed sobą pacjenta, którego potrzeby często są inne niż te zdefiniowane przez algorytm.

Jako społeczeństwo, ale i jako specjaliści musimy mieć świadomość, że AI tworzymy sami. To jest nasza olbrzymia odpowiedzialność, by kontynuować ten proces roztropnie. Nawet przypadkowy błąd dla AI wciąż jest wiążącą daną, bo AI nie umie danych sobie wymyślić, dopowiedzieć, zinterpretować w sensie takim jak umie to zrobić ludzki mózg. W nauce, w medycynie jakość danych ma większe znaczenie niż sam algorytm. Dane muszą być przygotowane bardzo precyzyjnie, bez błędów, muszą być zwalidowane i doskonale opisane klinicznie, muszą być różnorodne i reprezentatywne. To dlatego jeszcze dużo pracy zwłaszcza przed nami.
Joanna Stojak