Czatboty i sztuczna inteligencja na razie nie zastąpią lekarza

Coraz częściej informacji medycznych szukamy za pośrednictwem czatbotów i asystentów domowych zasilanych przez sztuczną inteligencję (SI lub AI). Póki co udzielane przez nie porady powinniśmy jednak traktować z dużym dystansem. Absolutnie nie należy zastępować nimi fachowych rozpoznań medycznych – przestrzegają specjaliści.

Adobe Stock
Adobe Stock

Kilka haseł, jedno kliknięcie i na ekranie wyskakują artykuły o chorobie i leczeniu – już duża pokusa, aby na własną rękę diagnozować swoje zdrowie z pomocą wyszukiwarek. Rozwój inteligentnych czatów i sterowanych głosem asystentów domowych czyni ten proces jeszcze bardziej przystępnym. Eksperci obserwujący to zjawisko ostrzegają jednak: metoda ta pozwala wprawdzie zdobyć ogólną wiedzę na temat różnych związanych ze zdrowiem tematów, ale wszelkie wątpliwości co do stanu zdrowia swojego lub innej osoby muszą być konsultowane z profesjonalistą.

Ludzie bardziej ufają poradom generowanym przez czatbota niż opracowaniom specjalistów

Badanie przeprowadzone przez zespół z University of Kansas pokazało, że poszukując informacji związanych ze zdrowiem ich dzieci, rodzice niebezpiecznie mocno ufają ChatowiGPT. Naukowcy zauważyli, że rodzice w ślepej próbie bardziej dowierzają komunikatom generowanym przez sztuczną inteligencję niż opracowaniom specjalistycznym. 

„Kiedy rozpoczynaliśmy te badania, było tuż po premierze ChatGPT. Mieliśmy obawy dotyczące tego, jak rodzice będą korzystać z tej nowej, łatwej metody uzyskiwania informacji zdrowotnych na temat swoich dzieci. Rodzice często szukają porad w internecie, dlatego chcieliśmy zrozumieć, jak wyglądałoby korzystanie z ChatGPT i jakie zagrożenia mogą się z tym wiązać” – mówi Calissa Leslie-Miller, główna autorka pracy opublikowanej na łamach „Journal of Pediatric Psychology”. 

Ona i jej zespół przeprowadzili eksperyment z udziałem 116 rodziców w wieku od 18 do 65 lat, którym przedstawiono teksty związane ze zdrowiem – np. informacje na temat snu i odżywiania niemowląt. Ochotnicy zapoznali się z treściami wygenerowanymi zarówno przez ChatGPT, jak i przez specjalistów z zakresu ochrony zdrowia, jednak nie poinformowano ich, kto jest autorem. 

Rys. Krzysztof "Rosa" Rosiecki

Sztuczna inteligencja. Doktor komputer wykryje chorobę i będzie ją leczyć?

Sztuczna inteligencja coraz lepiej stawia diagnozy, przewiduje, kto może zachorować, przegląda lekarskie notatki. Co więcej, wygląda na to, że nieporównanie szybciej od człowieka planuje skomplikowaną terapię, a nawet wymyśla nowe leki. Czy będziemy chodzić do doktora AI?

„Uczestnicy projektu oceniali teksty na podstawie postrzeganej moralności, wiarygodności, poziomu wiedzy, dokładności oraz tego, jak bardzo prawdopodobne jest, że polegaliby na tych informacjach” – wyjaśnia Leslie-Miller. 

Naukowcy zwracają uwagę, że choć ChatGPT w wielu przypadkach radzi sobie dobrze, może również generować nieprawdziwe czy wprowadzające w błąd informacje. Tymczasem jego odpowiedzi uznawane były przez ochotników za wiarygodne i moralne, w związku z czym mogły wpływać na zachowanie badanych. Naukowców to niepokoi. 

„W przypadku zdrowia dzieci, gdzie konsekwencje mogą być poważne, problem ten ma kluczowe znaczenie. Obawiamy się, że ludzie mogą coraz częściej polegać na SI w sprawach wymagających porad zdrowotnych, bez odpowiedniego nadzoru ekspertów” – mówi Leslie-Miller. 

„Uważam, że SI ma duży potencjał, który można wykorzystać. W szczególności może generować informacje na znacznie większą skalę, niż było to wykonalne wcześniej. Ale ważne jest, aby pamiętać, że SI nie jest ekspertem, a informacje, które dostarcza, nie pochodzą od specjalistów” – uczula autorka badania.

Dlaczego odpowiedzi czatbota wydają się lepsze niż udzielane przez lekarzy?

Jakość, przynajmniej pozorna, odpowiedzi udzielanych przez SI może zaskakiwać. Sugeruje to kontrowersyjne badanie przeprowadzone na University of California w San Diego. Jego autorzy wybrali z publicznego forum 195 pytań dotyczących zdrowia, na które odpowiadali lekarze. Naukowcy poprosili ChatGPT, by odpowiedział na te same pytania. Anglojęzyczne odpowiedzi fachowców oraz sztucznej inteligencji zostały następnie ocenione przez zespół specjalistów. 

Uczestniczący w badaniu eksperci mieli stwierdzić, która odpowiedź była lepsza. Oceniali przy tym zarówno jakość dostarczonych informacji, jak i poziom empatii, wykorzystując przy tym skalę 1-5, od najniższego do najwyższego poziomu. Następnie badacze uszeregowali i porównali uśrednione oceny. Jak się okazało, eksperci aż w 78,6 proc. preferowali odpowiedzi czatbota – twierdzą autorzy. 

Odpowiedzi lekarzy okazały się znacznie bardziej zwięzłe – średnio 52 słowa względem 211 w przypadku ChatGPT. Jako dobre lub bardzo dobre jakościowo oceniono 78,5 proc. odpowiedzi SI oraz 22,1 proc. lekarskich. Wysoki lub bardzo wysoki poziom empatii stwierdzono w 45,1 proc. odpowiedzi czatbotach i tylko 4,6 proc. zaczerpniętych z forum komentarzy specjalistów. 

Porządkowanie chaosu: sztuczna inteligencja w medycynie

Sztuczna inteligencja, algorytmy, moce obliczeniowe – brzmią jak z filmu science fiction. Takie narzędzia wkraczają jednak w kolejne aspekty naszego życia, medycynę także. Zwykle boimy się tego, czego nie znamy. Czy powinniśmy obawiać się, że sztuczna inteligencja zastąpi lekarza?

„W tym przekrojowym badaniu czat generował jakościowe i empatyczne odpowiedzi na pytania pacjentów zadawane na internetowym forum. Warto dalej badać tę technologię w warunkach klinicznych, na przykład używając czatbota do przygotowania odpowiedzi, które lekarze mogliby następnie edytować. 

Randomizowane badania mogłyby ocenić, czy użycie asystentów SI może poprawić jakość odpowiedzi, zmniejszyć wypalenie zawodowe lekarzy oraz poprawić wyniki leczenia pacjentów” – piszą naukowcy.

Konieczne jest tutaj istotne zastrzeżenie. Chociaż praca ukazała się w renomowanym czasopiśmie, autorzy opracowania wskazującego na przewagę SI zgłosili różne konflikty interesów dotyczące m.in. płatnej współpracy z firmami informatycznymi. Niezwiązany z badaniem ekspert, dr Robert H. Shmerling z Harvard Medical School wypunktował także inne ważne powody, aby do tych wyników podchodzić z dystansem. 

„Pomysł, że odpowiedzi generowane przez SI mogą być bardziej empatyczne, niż te udzielane przez prawdziwych lekarzy, wydaje mi się zarówno zdumiewający, jak i smutny. Jak to możliwe, że nawet najbardziej zaawansowana maszyna mogłaby przewyższyć lekarza w okazywaniu tej ważnej, szczególnie ludzkiej cnoty?” – pyta ekspert. 

Istotny może tu być specyficzny kontekst materiału badawczego. Odpowiedzi lekarzy zaczerpnięto z forum, na którym wypowiadali się, udzielając bezpłatnych, podstawowych porad, poświęcając na to swój czas. ChatGPT natomiast specjalnie generował odpowiedzi, korzystając z ogromnego zasobu wzorców, na których został wytrenowany.

Dr Shmerling zauważa ponadto, że badanie nie zostało zaprojektowane, aby odpowiedzieć na dwa kluczowe pytania: czy odpowiedzi AI dostarczają dokładnych informacji medycznych i poprawiają zdrowie pacjentów, jednocześnie unikając dezorientacji lub szkody? Oraz – czy pacjenci zaakceptują fakt, że na pytania skierowane przez nich do lekarza może odpowiadać maszyna? 

„Eksperci dokonujący oceny zastosowali niesprawdzone, subiektywne kryteria jakości i empatii. Co istotne, nie oceniali rzeczywistej dokładności odpowiedzi. Nie oceniali również, czy odpowiedzi zawierały zmyślone informacje, co jest problemem odnotowanym w przypadku ChatGPT” – podkreśla. 

Krytyk zwraca również uwagę, że bardziej szczegółowe odpowiedzi mogą wydawać się odzwierciedleniem cierpliwości lub troski i dlatego wyższe oceny empatii mogły być po prostu bardziej związane z liczbą słów, niż z prawdziwą empatią. Co więcej, eksperci mogli rozpoznawać komunikaty generowane przez SI, której język czasami różni się od ludzkiego, przez co nie byli całkowicie bezstronni. 

„Poleganie na odpowiedziach SI na pytania pacjentów bez solidnych dowodów na ich dokładność i rzeczywisty nadzór ze strony profesjonalistów medycznych wydaje się przedwczesne” – twierdzi dr Shmerling. „A tak przy okazji, ChatGPT się z tym zgadza – zapytałem go, czy może odpowiadać na pytania medyczne lepiej niż lekarz. Jego odpowiedź brzmiała: nie” – dodaje.

Czatbot może pomóc specjalistom w pracy, ale nie zastąpi lekarza

Podobne wnioski wyciągnęli badacze z Uniwersytetu króla Sauda w Rijadzie, którzy przeanalizowali liczne publikacje na temat medycznych zastosowań SI. Uwzględnili przy tym m.in. zastosowanie tej technologii w dostarczaniu ogólnych informacji na temat zdrowia (obok wspierania pracy lekarzy np. przez wysyłanie przypomnień pacjentom czy pomoc w ustalaniu dat wizyt). 

„Podczas gdy czatboty SI wykazały znaczący potencjał w zarządzaniu rutynowymi zadaniami, przetwarzaniu ogromnych ilości danych i wspieraniu edukacji pacjentów, wciąż brakuje im empatii, intuicji i doświadczenia, które są nieodłączną częścią pracy ludzkich pracowników służby zdrowia” – stwierdzają naukowcy. 

Zauważają również, że wprowadzenie SI do medycyny oznacza konieczność pokonania wyzwań natury etycznej oraz prawnej i będzie wymagało opracowania specjalnych, rygorystycznych regulacji. Badacze wyjaśniają m.in., że działanie SI wynika z pracy algorytmów operujących tylko na wprowadzonych do nich wcześniej danych. Jakość opracowywanych przez czat odpowiedzi, np. zaleceń będzie zatem najwyżej tak dobra, jak wprowadzone dane. Uwzględnienie wśród nich opracowań poniżej odpowiednich standardów może skutkować szkodliwymi odpowiedziami. 


„Ostatecznym celem powinno być wykorzystanie technologii, takiej jak czatboty SI, do poprawy opieki nad pacjentem i wyników leczenia, a nie zastępowanie niezastąpionego w opiece zdrowotnej czynnika ludzkiego” – piszą eksperci.

Autor

Marek Matacz

Marek Matacz - Od ponad 15 lat pisze o medycynie, nauce i nowych technologiach. Jego publikacje znalazły się w znanych miesięcznikach, tygodnikach i serwisach internetowych. Od ponad pięciu lat współpracuje serwisem "Zdrowie" oraz serwisem naukowym Polskiej Agencji Prasowej. Absolwent Międzyuczelnianego Wydziału Biotechnologii Uniwersytetu Gdańskiego i Gdańskiego Uniwersytetu Medycznego.

ZOBACZ TEKSTY AUTORA

ZOBACZ PODOBNE

  • Czy można zatrzymać chorobę Friedreicha?

    Materiał promocyjny

    Światowy Dzień Ataksji Friedreicha, przypadający w każdą, trzecią sobotę maja, w tym roku wypada 17 dnia tego miesiąca. To ważna okazja do zwiększenia świadomości na temat tej ultrarzadkiej, genetycznej choroby neurologicznej. W tym dniu chcemy przede wszystkim zwrócić uwagę na potrzeby i możliwości leczenia wszystkich pacjentów z FA. O tym, jak niewiele wiemy o tej chorobie, świadczą wyniki sondy ulicznej.

  • Trzeba śledziony, by wyleczyć serce

    O śledzionie zazwyczaj wiemy tyle, że „można bez niej żyć”. Jednak współczesna nauka odkrywa, że śledziona wcale nie jest zbędna – to kluczowy strażnik krwioobiegu i układu immunologicznego. Pełni jednocześnie funkcję filtra dla krwi, centrum odpornościowego reagującego na zagrożenia, magazynu krwinek oraz organu recyklingu zużytych elementów krwi. Nowe badania przynoszą zaś zaskakujące dowody, że śledziona odgrywa istotną rolę w regeneracji tkanek. 

  • RAK STOP - informacja prasowa

    Materiał promocyjny

    Jak ograniczyć śmiertelność z powodu raka piersi? Eksperci apelują o szerszy dostęp do nowoczesnych narzędzi diagnostycznych i podkreślają emocjonalny wymiar choroby. 13 maja br. w Sejmie RP odbyło się posiedzenie Parlamentarnego Zespołu ds. Profilaktyki Nowotworowej – RAK STOP, poświęcone jednemu z najpoważniejszych wyzwań zdrowotnych w Polsce: jak skutecznie zmniejszyć śmiertelność z powodu raka piersi i zachęcić kobiety do badań profilaktycznych. W gronie ekspertów i pacjentek wiele miejsca poświęcono potrzebie spersonalizowanego leczenia, roli testów wielogenowych oraz emocjonalnemu wymiarowi choroby, o którym wciąż mówi się zbyt rzadko.

  • Adobe Stock

    Badania kliniczne szansą chorych na raka dzieci

    Dynamiczny rozwój badań klinicznych jest ogromną szansą na leczenie chorych na raka dzieci również w Polsce. Z danych Agencji Badań Medycznych wynika, że co roku w naszym kraju uczestniczy w nich około 25 tys. pacjentów. Wpływają one na poprawę standardów leczenia.

NAJNOWSZE

  • Badanie: większość Polaków za zakazem reklam alkoholu

    Piwo to najczęstszy wybór młodzieży sięgającej po alkohol po raz pierwszy. Nie można w tym kontekście nie wspomnieć o oddziaływaniu reklam, nawet jeśli na ekranie lub billboardzie pojawia się etykieta „zero procent”. Dlatego Fundacja GrowSpace rusza z kampanią antyalkoholową „Zero procent prawdy”. Zlecony przez nią sondaż potwierdza słuszność tej decyzji.

  • Trzeba śledziony, by wyleczyć serce

  • Badania kliniczne szansą chorych na raka dzieci

  • Ćwicz dla siebie i dziecka

  • Czerniak – 5 liter, które ratują życie

  • AdobeStock

    VR - nowe narzędzie do leczenia fobii

    Zdaniem dr Agnieszki Popławskiej, Kierownika Zakładu Psychologii Organizacji i Marketingu Uniwersytetu SWPS w Sopocie psychoterapie z wykorzystaniem AI to tylko kwestia czasu. VR-owe gogle są już powszechne, teraz czas na specjalne VR-owe pokoje, gdzie można np. zmierzyć się z fobiami albo popracować nad uzależnieniami. Specjalistka przekonuje, że terapia wspomagana VR daje dużo lepsze efekty.

  • Źródło głosu

  • Supermoce ludzkiego ciała

Serwisy ogólnodostępne PAP