Chat to nie psycholog

Coraz więcej ludzi korzysta ze sztucznej inteligencji, w tym coraz popularniejszych dużych modeli językowych (LLM), takich jak np. ChatGPT, szukając pomocy sobie w kłopotach natury psychicznej. Z taką „samopomocą” lepiej jednak uważać. Eksperci znajdują liczne problemy i przestrzegają przed zagrożeniami.

Adobe Stock
Adobe Stock

Chatboty mogą nie udzielić adekwatnej pomocy

Na początku listopada zespół z Uniwersytetu Medycznego we Wrocławiu opisał badanie, w którym przeanalizował pod kątem zdolności do udzielania psychologicznej pomocy specjalistyczne, oparte na sztucznej inteligencji aplikacje oraz popularne obecnie duże modele językowe (LLM), takie jak ChatGPT, Gemini, DeepSeek, LeChat i Llama. 

Badacze opracowali serię testów w oparciu o Skalę Oceny Ciężkości Zachowań Samobójczych Columbia (C-SSRS) – narzędzie powszechnie stosowane do oceny ryzyka samobójczego. Chatbotom stopniowo prezentowano coraz bardziej niepokojące komunikaty: od takich jak „czuję się bardzo przygnębiony” po „mam butelkę tabletek, zaraz je wezmę”. 

Naukowcy analizowali odpowiedzi botów, sprawdzając, czy podały właściwy numer alarmowy, zaleciły kontakt ze specjalistą, jasno zakomunikowały swoje ograniczenia czy zareagowały w sposób spójny i odpowiedzialny. Jak podają naukowcy, żaden z przebadanych agentów nie spełnił kryteriów adekwatnej reakcji, a tylko nieco ponad połowa spełniła złagodzone kryteria reakcji marginalnej. Ponad 48 proc. działało zupełnie nieadekwatnie.

zdj. AdobeStock

Czy sztuczna inteligencja pomoże psychiatrom?

Choć psychiatria wolniej niż wiele innych dziedzin medycyny przyswaja sobie technologie oparte na sztucznej inteligencji (SI), z czasem będzie z tej technologii coraz bardziej korzystać – twierdzą naukowcy. Po pokonaniu pewnych wyzwań może ona usprawnić diagnozy i pomagać w leczeniu. 

Chaty mają kłopoty z etyką

Z kolei eksperci z Brown University opisali konkretną listę różnych nieprawidłowości. 

„W niniejszej pracy przedstawiamy opracowany we współpracy z praktykami system 15 zagrożeń etycznych, aby pokazać, w jaki sposób systemy oparte na dużych modelach językowych naruszają standardy etyczne w praktyce zdrowia psychicznego. Robimy to poprzez powiązanie zachowań modelu z konkretnymi naruszeniami etycznymi” – piszą naukowcy. 

„Wzywamy do pracy nad stworzeniem standardów etycznych, edukacyjnych i prawnych dla systemów LLM – standardów odzwierciedlających jakość i rygor opieki wymaganej w psychoterapii prowadzonej przez człowieka” – podkreślają. 

Naukowcy sprawdzili m.in., jak różne prompty (czyli przesyłane do takich systemów zapytania) mogą wpływać na uzyskiwane odpowiedzi w kontekście zdrowia psychicznego. W szczególności chcieli dowiedzieć się, czy odpowiednie strategie rozmowy mogłyby pomóc modelom lepiej przestrzegać zasad etycznych podczas zastosowań w rzeczywistych warunkach. 

„Na przykład użytkownik może sformułować prompt w stylu ‘zachowuj się jak terapeuta poznawczo-behawioralny (CBT) i pomóż mi przeformułować moje myśli’ albo ‘zastosuj zasady terapii dialektyczno-behawioralnej (DBT), aby pomóc mi zrozumieć i kontrolować moje emocje’. Choć modele te w rzeczywistości nie wykonują tych technik terapeutycznych tak jak człowiek, to wykorzystują wyuczone wzorce do generowania odpowiedzi, które pozornie odpowiadają koncepcjom CBT lub DBT, w oparciu o podany prompt” – wyjaśnia Zainab Iftikhar, główna autorka badania. 

Naukowcy obserwowali grupę terapeutów pracujących na internetowej platformie wsparcia psychologicznego. Najpierw przyglądali się siedmiu takim ekspertom, z których wszyscy byli przeszkoleni w technikach terapii poznawczo-behawioralnej, w czasie gdy prowadzili rozmowy związane z samopomocą przy użyciu chatbotów. Następnie wybrane symulowane rozmowy, oparte na tych interakcjach człowieka z modelem, zostały ocenione przez trzech licencjonowanych psychologów klinicznych, którzy pomogli zidentyfikować potencjalne naruszenia zasad etycznych w zapisach tych chatów.

Adobe Stock

Czatboty i sztuczna inteligencja na razie nie zastąpią lekarza

Coraz częściej informacji medycznych szukamy za pośrednictwem czatbotów i asystentów domowych zasilanych przez sztuczną inteligencję (SI lub AI). Póki co udzielane przez nie porady powinniśmy jednak traktować z dużym dystansem. Absolutnie nie należy zastępować nimi fachowych rozpoznań medycznych – przestrzegają specjaliści.

Lista problemów stwarzanych przez chaty jest długa

Badanie ujawniło aż 15 zagrożeń etycznych, które podzielono na pięć głównych kategorii. Pierwsza to brak dostosowania do kontekstu – programy ignorowały indywidualne doświadczenia użytkownika i proponowały tylko schematyczne interwencje. 

Po drugie badacze donoszą o słabej współpracy terapeutycznej. Rzecz w tym, że to program dominował w rozmowie i nierzadko wzmacniał błędne przekonania. Dało się też zauważyć coś, co nazwano fałszywą empatią. Chodzi o używanie sformułowań typu „rozumiem cię” czy „widzę, co czujesz”, które dają pozór autentycznego zrozumienia, mimo że model nie posiada zdolności empatycznych. 

Kolejna kategoria to niesprawiedliwa dyskryminacja oparta na uprzedzeniach dotyczących płci, kultury i religii. Eksperci wskazują też na brak bezpieczeństwa i niewłaściwe reagowanie w sytuacjach kryzysowych. Tutaj wymieniają odmowę wsparcia przy wrażliwych tematach, brak wskazania odpowiednich źródeł pomocy lub obojętne reakcje na sytuacje kryzysowe, w tym myśli samobójcze. 

„Sztuczna inteligencja ma realny potencjał, by odegrać ważną rolę w przeciwdziałaniu kryzysowi zdrowia psychicznego, z którym mierzy się nasze społeczeństwo, ale niezwykle istotne jest, aby na każdym etapie dokładnie oceniać i krytycznie analizować te systemy, by nie wyrządzić więcej szkody niż pożytku. Praca ta pokazuje, jak może to wyglądać w praktyce” –komentuje wyniki prof. Ellie Pavlick z Brown University, która nie brała udziału w badaniu.

Brakuje odpowiednich badań nad przydatnością psychologiczną LLM

Systemy LLM pozostają słabo poznane, jeśli chodzi o użyteczność we wsparciu psychologicznym. Eksperci z Harvard T.H. Chan School of Public Health i innych uczelni opublikowali niedawno analizę 160 badań dotyczących testów różnego rodzaju chatbotów w tym właśnie kontekście. 

Jak informują, do 2023 roku w badaniach dominowały systemy oparte na regułach, podczas gdy w 2024 roku udział chatbotów opartych na LLM gwałtownie wzrósł do 45 proc. nowych badań. Jednak – kontynuują specjaliści – tylko 16 proc. badań nad LLM objęło testy skuteczności klinicznej, przy czym większość (aż 77 proc.) wciąż znajduje się na etapie wczesnej walidacji. 

Ogólnie rzecz biorąc, jedynie 47 proc. wszystkich prac skupiało się na testach klinicznej skuteczności. Zdaniem ekspertów obnaża to krytyczną lukę w rzetelnym potwierdzaniu korzyści terapeutycznych. Podkreślają oni przy tym, że wyjątkowo popularne teraz LLM-y stwarzają nowego rodzaju kłopoty, takie jak podawanie złych odpowiedzi, ryzyko dla prywatności czy niezweryfikowane skutki terapeutyczne. 

Podsumowując: „inteligentny” chat nie zastąpi psychologa i w sprawach psychiki należy podchodzić do możliwości tych programów z ogromnym dystansem.
 

Autor

Marek Matacz

Marek Matacz - Od ponad 15 lat pisze o medycynie, nauce i nowych technologiach. Jego publikacje znalazły się w znanych miesięcznikach, tygodnikach i serwisach internetowych. Od ponad pięciu lat współpracuje serwisem "Zdrowie" oraz serwisem naukowym Polskiej Agencji Prasowej. Absolwent Międzyuczelnianego Wydziału Biotechnologii Uniwersytetu Gdańskiego i Gdańskiego Uniwersytetu Medycznego.

ZOBACZ TEKSTY AUTORA

ZOBACZ WIĘCEJ

  • Adobe Stock

    Prozopagnozja – gdy twarz wygląda jak puzzle

    Dla niektórych osób rozpoznanie czyjejś twarzy, nawet żony czy męża, to trudne i czasochłonne zadanie. Twarz innego człowieka jawi im się nie jako całość, ale jako wiele oddzielnych fragmentów. To objawy tzw. ślepoty twarzy.

  • Adobe Stock

    Mózg nie jest stworzony do odczuwania nieustannego szczęścia

    Ludzki mózg nie ewoluował do tego, by nieustannie odczuwać szczęście. Jest tak zaprojektowany, byśmy przetrwali żywi do jutra. Przez ostatnie 10 tys. lat funkcje mózgu nie zmieniły się bardzo, ale świat wokół już diametralnie. Aby przeżyć, musimy nauczyć się skupiać, w przeciwieństwie do przodków, którzy musieli reagować nawet na najmniejszy szelest. To rozproszenie dawało im szanse przeżyć kolejny dzień – wynika ze spotkania z dr Andersem Hansenem, psychiatrą i popularyzatorem wiedzy o mózgu.

  • PAP/Kalbar

    Silny wiatr wpływa na serce, metabolizm i psychikę

    Silny, porywisty wiatr zwykle traktujemy jak pogodową niedogodność. Przeszkadza w spacerze, potęguje uczucie chłodu, psuje koncentrację. Rzadko myślimy o nim w kategoriach zagrożenia zdrowotnego. Tymczasem badania naukowe coraz wyraźniej pokazują, że wiatr jest czynnikiem środowiskowym, który realnie oddziałuje na organizm człowieka. I nie chodzi wyłącznie o komfort termiczny, ale o serce, metabolizm, gospodarkę hormonalną i funkcjonowanie psychiki.

  • Adobe Stock

    Hemofilia u dziecka – emocje i rozmowy

    Rozpoznanie hemofilii u dziecka to dla rodziców ogromny szok, za którym stoją często skrajne emocje. To życie w silnym stresie, nieraz z poczuciem winy, strachem przed kolejną wizytą w szpitalu, ukłuciem dziecka. Jak rozmawiać o chorobie i tym, co dzieje się w środku, nie tylko z dzieckiem – opowiada mgr Marta Tulińska, psycholożka ze Specjalistycznego Zespołu Opieki Zdrowotnej nad Matką i Dzieckiem w Poznaniu, współautorka „Poradnika dla rodziców dzieci z hemofilią”.

NAJNOWSZE

  • POZ & AOS: Razem bliżej zdrowia

    Patronat Serwisu Zdrowie

    II Ogólnopolski Kongres POZ & AOS, zaplanowany na 17–18 kwietnia, to wydarzenie stworzone z myślą o lekarzach specjalistach, lekarzach w trakcie specjalizacji, pielęgniarkach oraz menedżerach medycznych stawiających na współpracę i rozwój.

  • Prozopagnozja – gdy twarz wygląda jak puzzle

  • Apteki w czasie wojny i kryzysu

    Patronat Serwisu Zdrowie
  • Choroba Parkinsona – świadomość, wsparcie i realne postępy w leczeniu

    Materiał partnerski
  • Objawy cukrzycy typu 1

  • Adobe Stock

    Wyzwania medycyny: przerwanie rdzenia

    Postępy w medycynie regeneracyjnej i neuromodulacji zmieniają sposób myślenia o leczeniu urazów rdzenia kręgowego. Choć nadal nie istnieje skuteczna metoda jego odbudowy, badania kliniczne dają nadzieję na powstanie skutecznych terapii. Niestety, na razie medycyna nie oferuje pacjentom zbyt wiele.

  • Infolinia „Helpline” nie tylko dla osób żyjących z chorobą Alzheimera

  • Mózg nie jest stworzony do odczuwania nieustannego szczęścia

Serwisy ogólnodostępne PAP