Chat to nie lekarz
Autor: Marek Matacz
Coraz więcej ludzi pyta sztuczną inteligencję o sprawy dotyczące zdrowia. Powody są różne - wygoda, wstyd czy z chęć zaoszczędzenia pieniędzy. Taka praktyka jest jednak niebezpieczna – przestrzegają specjaliści.
Miliony Amerykanów konsultuje się w kwestii swojego zdrowia ze sztuczną inteligencją, zanim odwiedzi lekarza – odkryli naukowcy z West Health-Gallup Center on Healthcare in America. Ankieta z udziałem reprezentatywnej dla kraju grupy 5,5 tys. dorosłych pokazała także powody takich wyborów. 71 proc. osób chciało po prostu uzyskać szybką odpowiedź. Taki sam odsetek liczył na dodatkowe informacje, 67 proc. było ciekawych, co AI im powie, 59 proc. wolało we własnym zakresie poszukać informacji przed rozmową z lekarzem, a 42 proc. potrzebowało pomocy poza godzinami przyjmowania pacjentów.
Ważne były też m.in. względy ekonomiczne – aż 27 proc. osób nie chciało płacić za wizytę, a 14 proc. nie było w stanie za nią zapłacić. Naukowcy wymieniają też takie powody, jak wcześniejsze złe doświadczenia (np. poczucie bycia zignorowanym), wstyd przed rozmową czy brak dostępu do specjalisty. Jak podają, niezależnie od przyczyny, niemal połowa Amerykanów korzystających z AI do uzyskiwania informacji o zdrowiu twierdziła, że dzięki sztucznej inteligencji poczuła się pewniej, rozmawiając później z lekarzem. 22 proc. stwierdziło, że pomogło im to wcześniej zidentyfikować problemy, a 19 proc. – że mogło uniknąć niepotrzebnych badań lub procedur.
Konsultujesz się z AI? Zachowaj odpowiedzialność
Ankietowani, którzy w ciągu 30 dni poprzedzających badanie korzystali z AI w celu uzyskania informacji zdrowotnych lub porad, najczęściej używali jej do zdobycia wiedzy na temat codziennych problemów zdrowotnych, w tym objawów fizycznych (58 proc.) oraz odżywiania lub aktywności fizycznej (59 proc.). Uczestnicy badania zgłaszali także, że używali AI do zrozumienia działań niepożądanych leków (46 proc.), interpretacji informacji medycznych (44 proc.) lub sprawdzania diagnozy bądź schorzenia (38 proc.). Prawie co czwarta osoba stwierdziła ponadto, że korzystała z AI w celu zgłębienia problemów związanych ze zdrowiem psychicznym lub emocjami.
„Sztuczna inteligencja już zmienia sposób, w jaki Amerykanie szukają informacji zdrowotnych, podejmują decyzje i kontaktują się z pracownikami ochrony zdrowia, a systemy opieki zdrowotnej muszą za tym nadążyć” – zaznaczył Tim Lash, prezes West Health Policy Center – organizacji non profit koncentrującej się na starzeniu się społeczeństwa oraz przystępności opieki zdrowotnej. „Ryzyko nie polega na tym, że AI rozwija się zbyt szybko. Polega na tym, że systemy opieki zdrowotnej mogą działać zbyt wolno, by odpowiedzialnie ukierunkować jej wykorzystanie w medycynie” – mówi.
Czy można ufać AI w kwestiach zdrowotnych?
Na łamach magazynu „Nature Medicine” eksperci z University of Oxford przedstawili natomiast wyniki badania z udziałem prawie 1,3 tys. osób, które wskazało na istotne zagrożenia szukania porad medycznych u sztucznej inteligencji. Naukowcy mówią o „wyraźnej luce między obietnicami związanymi z dużymi modelami językowymi (LLM) a ich rzeczywistą użytecznością”. Jak informują, mimo że takie systemy coraz lepiej radzą sobie w standaryzowanych testach z wiedzy medycznej, to dla użytkowników szukających pomocy stwarzają realne zagrożenie. Można np. uzyskać niewłaściwą „diagnozę”, czy pozostać bez świadomości potrzeby pilnej kontaktu z lekarzem.
Uczestnicy badania w serii konkretnych scenariuszy medycznych opracowanych przez lekarzy korzystali z LLM-ów do rozpoznawania schorzeń i podejmowania decyzji o dalszym postępowaniu, na przykład o wizycie u lekarza rodzinnego lub zgłoszeniu się do szpitala. Korzystanie z tych systemów nie dawało żadnej przewagi nad innymi zawodnymi, bardziej tradycyjnymi metodami, takimi jak np. opieranie się na informacjach z internetowej wyszukiwarki i własnym osądzie.
Badanie ujawniło także poważne kłopoty z komunikacją człowieka z AI. Po pierwsze uczestnicy często nie wiedzieli, jakich informacji systemy potrzebują, by udzielić trafnej porady. Po drugie odpowiedzi, które otrzymywali, nierzadko łączyły dobre i złe rekomendacje, co utrudniało wskazanie najlepszego sposobu postępowania.
„Rozbieżność między wynikami w benchmarkach a rzeczywistym działaniem powinna być sygnałem alarmowym dla twórców AI i prawodawców. Nasza niedawna praca dotycząca trafności benchmarków pokazuje, że wiele ocen nie mierzy tego, co rzekomo ma mierzyć, a to badanie dobitnie pokazuje, dlaczego ma to znaczenie. Nie możemy polegać wyłącznie na standaryzowanych testach przy ustalaniu, czy te systemy są bezpieczne do użytku publicznego” – powiedział prof. Adam Mahdi, współautor badania.
„Tak jak wymagamy badań klinicznych dla nowych leków, tak systemy AI potrzebują rygorystycznych testów z udziałem zróżnicowanych, rzeczywistych użytkowników, aby zrozumieć ich prawdziwe możliwości w sytuacjach wysokiego ryzyka, takich jak opieka zdrowotna” – podkreślił.
Informacje AI o lekach też bywają mylące
Zespół z Uniwersytetu Fryderyka Aleksandra w Erlangen i Norymberdze sprawdził z kolei jakość porad udzielanych przez AI na temat leków. W tym celu badacze wpisali do systemu Bing Copilot 10 często zadawanych przez pacjentów pytań dotyczących 50 najczęściej przepisywanych leków na amerykańskim rynku ambulatoryjnym. Odpowiedzi i ewentualne szkody, jakie mogłyby z nich wynikać, zostały ocenione przez ekspertów.
W testach kompletności odpowiedzi dostawały bardzo wysokie oceny, podobnie jak w testach sprawdzających trafność. Jednak po bliższej analizie eksperci uznali, że znaczna część (aż 66 proc.) odpowiedzi może być potencjalnie szkodliwa. 42 proc. mogło powodować szkody o łagodnym lub umiarkowanym nasileniu, a 22 proc. stwarzało wysokie ryzyko. Naukowcy stwierdzili też, że odpowiedzi były trudne w odbiorze.
„Pracownicy ochrony zdrowia powinni ostrożnie podchodzić do rekomendowania wyszukiwarek opartych na AI, dopóki nie będą dostępne rozwiązania bardziej precyzyjne i wiarygodne” – stwierdzają badacze.