ChatGPT Health: analizuje badania krwi, ale lekarza nie zastąpi

Firma OpenAI zaprezentowała nowy moduł ChatGPT, który ma m.in. analizować wyniki badań krwi na podstawie dokumentacji medycznej. – Użytkownicy nie powinni mieć jednak przekonania, że uzyskają diagnozę od ChatGPT – mówi PAP Ligia Kornowska, liderka AI w Zdrowiu.
Open AI zaprezentowała nową funkcję do poszukiwania informacji na temat zdrowia. Będzie znana użytkownikom pod nazwą ChatGPT Health. Moduł ma być dostępny w menu paska bocznego chatbota i udzielać informacji w oparciu o przesłaną przez użytkownika dokumentację medyczną. Funkcja oferuje m.in. analizy wyników badań krwi i sugestie żywieniowe.
Według Open AI to odpowiedź na społeczne zapotrzebowanie. Ze styczniowego raportu firmy „AI as a Healthcare Ally” wynika bowiem, że do ChatGPT zwraca się codziennie ponad 40 mln użytkowników z pytaniami dotyczącymi opieki zdrowotnej, a ponad 5% wszystkich wiadomości wymienianych z asystentem AI dotyczy tematu opieki zdrowotnej. Zajmująca się tematem wykorzystania AI w kwestiach zdrowotnych Ligia Kornowska, liderka koalicji AI w Zdrowiu, zwraca uwagę na związane z tym niebezpieczeństwa.
– Jeśli algorytm sztucznej inteligencji ma bezpośrednio wpływać na decyzje diagnostyczno-lecznicze u pacjenta, to powinien być zgodny z regulacjami prawnymi dotyczącymi wyrobów medycznych czy tzw. algorytmów wysokiego ryzyka. W sytuacjach, kiedy algorytm nie jest certyfikowanym wyrobem medycznym, tak jak jest to w przypadku ChatGPT Health, tak naprawdę nie wiemy, czy poda on pacjentowi dobre informacje, czy wprowadzi go w błąd – zauważa ekspertka.
Według niej taka certyfikacja pozwala dostarczyć informacji na temat tego, na ile algorytm jest skuteczny i czuły, a także z jakim prawdopodobieństwem powie użytkownikom prawdę, a z jakim może wprowadzić ich w błąd.
W opinii Kornowskiej zakres użycia ChatGPT Zdrowie powinno się więc na razie ograniczyć do celów edukacyjnych. Powinien zawierać informację, że każdą wiadomość, którą chat przekazuje, trzeba zweryfikować samodzielnie. Również pacjenci – jak mówi liderka AI w Zdrowiu – nie powinni być wprowadzani w przekonanie, że uzyskają diagnozę od asystenta AI.
– W takim kontekście ChatGPT na pewno nie zastąpi konsultacji lekarskiej – podkreśla.
Nowe narzędzia także dla personelu szpitala
Firma OpenAI zaprezentowała również zestaw narzędzi dla organizacji medycznych „OpenAI for Healthcare”. Ma on oferować m.in. pomoc w pracy administracyjnej, czyli tworzyć podsumowania wypisów, zaleceń dla pacjentów i listów klinicznych. Z takich narzędzi mają już korzystać amerykańskie instytucje i placówki, jak AdventHealth czy Boston Children’s Hospital.
Kornowska zwraca jednak uwagę, że sfera ochrony danych osobowych, szczególnie tych wrażliwych, regulowana jest inaczej w Unii Europejskiej, a inaczej w Stanach Zjednoczonych.
– Korzystając z narzędzia pochodzącego z USA, trzeba się upewnić, że spełnia ono regulacje unijne, takie jak rozporządzenie ogólne o danych osobowych RODO – zaznacza ekspertka.
Na problemy związane z korzystaniem z porad medycznych asystentów AI zwrócił ostatnio uwagę brytyjski dziennik „The Guardian”. Styczniowe śledztwo dziennika wykazało, że podsumowania generowane przez AI wyszukiwarki Google podawały nieścisłe informacje zdrowotne. Miały one dotyczyć m.in. kluczowych badań czynności wątroby. Według „Guardiana” na podstawie tych informacji osoby z poważnymi chorobami tego narządu mogłyby błędnie uważać, że są zdrowe.
Rzecznik Google, zapytany przez brytyjski dziennik, odpowiedział, że firma nie komentuje pojedynczych usunięć w wyszukiwarce.
– W przypadkach, gdy funkcje AI Overviews nie uwzględniają kontekstu, pracujemy nad wprowadzeniem szeroko zakrojonych ulepszeń i w razie potrzeby podejmujemy działania zgodnie z naszymi zasadami – wyjaśnił.
Źródło: naukawpolsce.pl/Weronika Moszpańska
Czytaj także: Sztuczna inteligencja może fundamentalnie zmienić paradygmat opieki medycznej
Komentarze
Strefa wiedzy
701 praktycznych artykułów - 324 ekspertów - 16 kategorii tematycznych




