Sztuczna inteligencja – jak to działa i gdzie leżą granice zaufania?
Na rynek wypuszczane są coraz nowsze produkty wspomagające pracę diagnostów czy klinicystów. Brak jest jednak narzędzi i systemów ich weryfikacji.
W ostatnim czasie przez wszystkie przypadki odmieniane jest wcale nie nowe, bo sformułowane już w 1956 roku pojęcie „sztuczna inteligencja” (AI). W ciągu ostatnich tygodni gorący temat do dyskusji na jej temat dała uruchomiona i udostępniona do dowolnego użytku aplikacja GPT -4.
To tak zwana otwarta sztuczna inteligencja – każdy może z nią podyskutować. Wspaniałe? A może niezwykle groźne? Popatrzmy na to zjawisko nie przez pryzmat codzienności (zostawiam to filozofom, etykom i innym fachowcom), a czysto utylitarnych zastosowań w medycynie. A jest to nadspodziewanie szeroki i ciekawy temat.
Czym jest sztuczna inteligencja?
Czym jest? Bardzo ogólnie i bez wdawania się zbytnio w szczegóły: to coś (w bardzo dużym przybliżeniu – program komputerowy), co zachowuje się jak człowiek. Na tyle mądry i inteligentny, na ile pozwalają mu wcześniejsze działania edukacyjne i stworzone algorytmy. Co więcej, to coś przez cały czas funkcjonowania uczy się, nabywa doświadczeń, a zdobytą wiedzę i umiejętności natychmiast wykorzystuje. Możemy z tym czymś rozmawiać językiem potocznym, zadawać pytania, formułować problemy do rozwiązania, zlecać prace do wykonania… A w odpowiedzi dostaniemy wyciąg z zasobów wiedzy i doświadczeń. Czy najlepszy z możliwych? Tak, najlepszy z możliwych, jakimi dysponuje nasz cyfrowy rozmówca, i na takim poziomie interakcji, na jaki zezwolą mu wcześniej wprowadzone algorytmy ograniczające. A czy to coś może ominąć założone ograniczenia? Tak, jeśli zespół programujący pozostawi lukę interpretacyjną lub nie uwzględni nowej wiedzy i umiejętności nabytych w trakcie bieżących interakcji. Jeśli nie będzie potrafił odpowiedzieć na zadane przez nas pytanie, to np. stworzy odpowiedź, w którą (według stworzonego na bieżąco naszego profilu mentalnego na podstawie rozmów z nami) najłatwiej nam będzie uwierzyć lub najbardziej nas ona zadowoli. Może też zadać nam pytanie, kim jesteśmy, i będzie wykonywał zadania „pod nas”.
Przykład?
My: Napisz wiersz o morzu.
AI: Ok, już tworzę, a w między czasie powiedz mi, w jakim jesteś nastroju.
My: Raczej wesołym i ironicznym/melancholijnym/smutnym.
AI: Dziękuję. Czy jesteś naukowcem?
My: Nie, jestem lekarzem.
AI: Oto wiersz dla ciebie: (…) W zależności od poprzednich odpowiedzi wiersz będzie: dowcipny/liryczny/dekadencki i jeszcze będzie zawierał kilka fachowych terminów medycznych.
To tylko bardzo prosty przykład. Proszę mi wierzyć – wypróbowany podczas rozmowy z GPT-4. Potem do niego wrócę. A teraz parę słów o historii tego typu programów w medycynie. Początki sięgają lat osiemdziesiątych ubiegłego wieku – wtedy zaczęły pojawiać się programy typu CAD/CAR/CAS: Computer-Assisted Diagnosis (CADg)/Radiology/Surgery i ich modyfikacje, np. Computer Aid Detection (CADt). Z szerokich baz danych korzystała (i korzysta w coraz większym stopniu) spektroskopia MR, zwana w początkach swojego istnienia „biopsją bez biopsji”, bo, ustalając precyzyjny skład chemiczny uwidocznionego na obrazie MR patologicznego obszaru, pozwala (bez pobierania i analizy wycinka) na postawienie rozpoznania histopatologicznego z wysokim stopniem prawdopodobieństwa. Praktyczne ich stosowanie to początki bieżącego tysiąclecia.
Sztuczna inteligencja w radiologii – korzyści
Najpierw słów parę o jasnych stronach AI. Programy te, korzystając z możliwie szerokich baz danych obrazowych, wspomagają pracę radiologów, sugerując głębszą analizę wskazanych obszarów obrazu, zastępowanie double readingu w przesiewowych badaniach mammograficznych czy umożliwiając planowanie zabiegów na podstawie przestrzennych rekonstrukcji tkanek z obrazów TK pacjenta, który jest przygotowywany do operacji. Takie były początki. Do tworzenia systemów wykorzystywania baz danych zaprzęgano wtedy po raz pierwszy tzw. sieci neuronowe. Potem na szeroką skalę rozwinęło się stosowane do nich uczenie maszynowe, a wreszcie uczenie głębokie (ang. deep learning). Następuje ono samoczynnie, na razie kontrolowane jedynie tworzonymi przez ludzi algorytmami sterującymi i kontrolnymi.
Czytaj też: Praktyczne aspekty ochrony radiologicznej w rentgenodiagnostyce