AI w ochronie zdrowia. Czy jesteśmy na to gotowi? - dlaszpitali.pl

AI w ochronie zdrowia. Czy jesteśmy na to gotowi?

opm-dlaszpitali-AI-w-ochronie-zdrowia
fot. mat. prasowe

Ogromne inwestycje w sztuczną inteligencję nie dziwią, gdyż korzyści wynikające z tej technologii są nie do przecenienia. Pojawia się jednak wiele pytań dotyczących zagrożeń wynikających z jej niewłaściwego – celowego lub nieumyślnego – wykorzystania. Coraz głośniej mówi się o etycznym aspekcie używania AI.

Już w 2018 roku uczestnicy badania przeprowadzonego przez SAS entuzjastycznie wypowiadali się na temat wykorzystania sztucznej inteligencji w ochronie zdrowia. Co ciekawe, znacznie więcej obaw wiązało się z implementacją tej technologii w bankowości czy handlu. Respondenci pozytywnie odnieśli się do przykładów wykorzystania AI do wsparcia lekarzy w opiece nad pacjentami. Aż 47 proc. badanych stwierdziło, że czułoby się komfortowo w asyście AI nawet podczas operacji. Tak pozytywne podejście do sztucznej inteligencji świadczy o tym, że oczekujemy namacalnych korzyści wynikających z zastosowania tej technologii. Sektor ochrony zdrowia mierzy się z wieloma wyzwaniami, które pandemia COVID-19 dodatkowo spotęgowała. Wśród nich m.in. rosnące koszty, braki personelu i coraz większe zapotrzebowanie na usługi. Specjaliści SAS są zdania, że branży może pomóc wykorzystanie zalet technologii AI. Twierdzą, że sztuczna inteligencja odegra istotną rolę w przekształcaniu branży opieki zdrowotnej, którą znamy.

Bezpieczeństwo danych przede wszystkim

AI i zaawansowana analityka mają bardzo szerokie zastosowanie w sektorze opieki zdrowotnej. Mogą istotnie wpływać na poprawę efektywności całego systemu. Zapewnić lepsze zrozumienie potrzeb i stanu zdrowia pacjentów, odciążenie lekarzy oraz personelu medycznego w zakresie zadań administracyjnych czy wsparcie procesów diagnostyki i leczenia chorych. Jednak mamy tu do czynienia z bardzo wrażliwymi informacjami. Można wyrządzić pacjentowi realną szkodę, gdyby jego dane osobowe i medyczne zostały błędnie zanalizowane lub dostały się w niepowołane ręce.

Mając na uwadze wykorzystanie danych medycznych, należy zadbać o właściwe środki zarządzania, nadzoru i bezpieczeństwa. Mieć pewność, że są używane w uzgodnionym zakresie, dostęp do nich mają upoważnieni pracownicy i autoryzowane algorytmy. Należy upewnić się, że każde wykorzystanie danych przechodzi weryfikację w celu sprawdzenia, czy przynosi korzyść i wyklucza możliwość wyrządzenia szkody. Z jednej strony powinniśmy chronić prywatność, ale z drugiej – umożliwiać postęp naukowy w medycyniemówi Piotr Kramek, Lider Praktyki Public Sector & Health Care w SAS Polska.

Czy AI jest obiektywna?

Techniki machine learning mogą być skuteczne na tyle, na ile pozwala jakość, ilość oraz reprezentatywność danych używanych do treningu modeli. Jednym z wyzwań jest niedostateczna reprezentacja pewnych grup populacji w wykorzystywanych danych. Przekłada się ona na stronniczość algorytmów AI (ang. algorythmic bias). W efekcie model sztucznej inteligencji może generować gorsze wyniki dla mniej reprezentowanych grup.

Dane, które nie są zrównoważone np. w zakresie płci, mogą wpływać na niższą dokładność modeli dla niedostatecznie reprezentowanej płci. Modele wykrywania raka skóry, które „uczą się” głównie na pacjentach o jasnej karnacji, mogą działać gorzej na osobach z ciemniejszą karnacją. W przypadku opieki zdrowotnej słabe wyniki modelu dla określonej grupy mogą dostarczyć niewiarygodnych informacji, prowadząc do niewłaściwej diagnozy lub nieprawidłowego leczeniapodkreśla Piotr Kramek.

Zasilanie modeli AI zaburzonymi danymi może z kolei prowadzić do uzyskania nieobiektywnych rezultatów. To ważne, biorąc pod uwagę potencjalny efekt wykorzystania sztucznej inteligencji w opiece zdrowotnej.

Jak zrozumieć algorytm?

Niektóre z algorytmów zwykle używanych w systemach AI (takich jak sieci neuronowe) są uważane za „czarne skrzynki”. Dostarcza się algorytmowi dane treningowe i prosi, aby nauczył się rozpoznawać określone wzorce na podstawie tych danych. Można parametryzować algorytmy oraz zmieniać dane wejściowe przez dodawanie nowych charakterystyk. Nie ma jednak bezpośredniego wglądu w przyczynę, dla której algorytmy zaklasyfikowały daną obserwację w określony sposób. W rezultacie można mieć bardzo dokładny model, który czasem daje nieoczekiwane wyniki. W przypadku ochrony zdrowia błędna klasyfikacja ze strony modelu i brak dodatkowego wyjaśnienia czy interpretacji ze strony algorytmu ogranicza możliwość weryfikacji wyniku po stronie lekarza. Może mieć ona negatywne konsekwencje dla zdrowia pacjenta. Dlatego bardzo ważne jest, aby z jednej strony zrozumieć i zweryfikować aspekty danych, z których korzystają algorytmy. Z drugiej zaś strony zapewnić interpretowalność wyników modeli sztucznej inteligencji, co pozwoli na weryfikację poprawności ich działania.

Czasami użycie mniej złożonych modeli może zapewnić lepsze zrozumienie zasad działania algorytmu. Regresja liniowa lub drzewa decyzyjne zapewnią wystarczającą dokładność oraz dobrą widoczność zmiennych i kluczowych czynników. Kiedy wykorzystuje się bardziej złożony model, warto użyć narzędzi wspierających wyjaśnialność algorytmów AI. Eksperci zajmujący się tym procesem powinni w obu przypadkach zweryfikować wyjaśnienie, szukając potencjalnych błędów i wątpliwości w doborze zmiennych oraz charakterystyk, które wykorzystuje modeldodaje Piotr Kramek.

AI potrzebuje człowieka

Jedną z barier hamujących realizację projektów AI jest brak odpowiednich kompetencji. Dlatego tak ważne jest kształcenie kadr oraz zapewnienie odpowiednich regulacji prawnych gwarantujących, że sztuczna inteligencja będzie wykorzystywana w sposób etycz­ny, z poszanowaniem prawa do zachowania prywatności.

Źródło: materiały prasowe

Sprawdź też: Sztuczna inteligencja pomoże pacjentom kardiologicznym

Komentarze

Nasze strony wykorzystują pliki cookies. Korzystanie z naszych stron internetowych bez zmiany ustawień przeglądarki dotyczących plików cookies oznacza, że zgadzacie się Państwo na umieszczenie ich w Państwa urządzeniu końcowym. Więcej szczegółów w Polityce prywatności.