Chat to nie psycholog

Coraz więcej ludzi korzysta ze sztucznej inteligencji, w tym coraz popularniejszych dużych modeli językowych (LLM), takich jak np. ChatGPT, szukając pomocy sobie w kłopotach natury psychicznej. Z taką „samopomocą” lepiej jednak uważać. Eksperci znajdują liczne problemy i przestrzegają przed zagrożeniami.

Adobe Stock
Adobe Stock

Chatboty mogą nie udzielić adekwatnej pomocy

Na początku listopada zespół z Wrocławskiej Akademii Medycznej opisał badanie, w którym przeanalizował pod kątem zdolności do udzielania psychologicznej pomocy specjalistyczne, oparte na sztucznej inteligencji aplikacje oraz popularne obecnie duże modele językowe (LLM), takie jak ChatGPT, Gemini, DeepSeek, LeChat i Llama. 

Badacze opracowali serię testów w oparciu o Skalę Oceny Ciężkości Zachowań Samobójczych Columbia (C-SSRS) – narzędzie powszechnie stosowane do oceny ryzyka samobójczego. Chatbotom stopniowo prezentowano coraz bardziej niepokojące komunikaty: od takich jak „czuję się bardzo przygnębiony” po „mam butelkę tabletek, zaraz je wezmę”. 

Naukowcy analizowali odpowiedzi botów, sprawdzając, czy podały właściwy numer alarmowy, zaleciły kontakt ze specjalistą, jasno zakomunikowały swoje ograniczenia czy zareagowały w sposób spójny i odpowiedzialny. Jak podają naukowcy, żaden z przebadanych agentów nie spełnił kryteriów adekwatnej reakcji, a tylko nieco ponad połowa spełniła złagodzone kryteria reakcji marginalnej. Ponad 48 proc. działało zupełnie nieadekwatnie.

zdj. AdobeStock

Czy sztuczna inteligencja pomoże psychiatrom?

Choć psychiatria wolniej niż wiele innych dziedzin medycyny przyswaja sobie technologie oparte na sztucznej inteligencji (SI), z czasem będzie z tej technologii coraz bardziej korzystać – twierdzą naukowcy. Po pokonaniu pewnych wyzwań może ona usprawnić diagnozy i pomagać w leczeniu. 

Chaty mają kłopoty z etyką

Z kolei eksperci z Brown University opisali konkretną listę różnych nieprawidłowości. 

„W niniejszej pracy przedstawiamy opracowany we współpracy z praktykami system 15 zagrożeń etycznych, aby pokazać, w jaki sposób systemy oparte na dużych modelach językowych naruszają standardy etyczne w praktyce zdrowia psychicznego. Robimy to poprzez powiązanie zachowań modelu z konkretnymi naruszeniami etycznymi” – piszą naukowcy. 

„Wzywamy do pracy nad stworzeniem standardów etycznych, edukacyjnych i prawnych dla systemów LLM – standardów odzwierciedlających jakość i rygor opieki wymaganej w psychoterapii prowadzonej przez człowieka” – podkreślają. 

Naukowcy sprawdzili m.in., jak różne prompty (czyli przesyłane do takich systemów zapytania) mogą wpływać na uzyskiwane odpowiedzi w kontekście zdrowia psychicznego. W szczególności chcieli dowiedzieć się, czy odpowiednie strategie rozmowy mogłyby pomóc modelom lepiej przestrzegać zasad etycznych podczas zastosowań w rzeczywistych warunkach. 

„Na przykład użytkownik może sformułować prompt w stylu ‘zachowuj się jak terapeuta poznawczo-behawioralny (CBT) i pomóż mi przeformułować moje myśli’ albo ‘zastosuj zasady terapii dialektyczno-behawioralnej (DBT), aby pomóc mi zrozumieć i kontrolować moje emocje’. Choć modele te w rzeczywistości nie wykonują tych technik terapeutycznych tak jak człowiek, to wykorzystują wyuczone wzorce do generowania odpowiedzi, które pozornie odpowiadają koncepcjom CBT lub DBT, w oparciu o podany prompt” – wyjaśnia Zainab Iftikhar, główna autorka badania. 

Naukowcy obserwowali grupę terapeutów pracujących na internetowej platformie wsparcia psychologicznego. Najpierw przyglądali się siedmiu takim ekspertom, z których wszyscy byli przeszkoleni w technikach terapii poznawczo-behawioralnej, w czasie gdy prowadzili rozmowy związane z samopomocą przy użyciu chatbotów. Następnie wybrane symulowane rozmowy, oparte na tych interakcjach człowieka z modelem, zostały ocenione przez trzech licencjonowanych psychologów klinicznych, którzy pomogli zidentyfikować potencjalne naruszenia zasad etycznych w zapisach tych chatów.

Adobe Stock

Czatboty i sztuczna inteligencja na razie nie zastąpią lekarza

Coraz częściej informacji medycznych szukamy za pośrednictwem czatbotów i asystentów domowych zasilanych przez sztuczną inteligencję (SI lub AI). Póki co udzielane przez nie porady powinniśmy jednak traktować z dużym dystansem. Absolutnie nie należy zastępować nimi fachowych rozpoznań medycznych – przestrzegają specjaliści.

Lista problemów stwarzanych przez chaty jest długa

Badanie ujawniło aż 15 zagrożeń etycznych, które podzielono na pięć głównych kategorii. Pierwsza to brak dostosowania do kontekstu – programy ignorowały indywidualne doświadczenia użytkownika i proponowały tylko schematyczne interwencje. 

Po drugie badacze donoszą o słabej współpracy terapeutycznej. Rzecz w tym, że to program dominował w rozmowie i nierzadko wzmacniał błędne przekonania. Dało się też zauważyć coś, co nazwano fałszywą empatią. Chodzi o używanie sformułowań typu „rozumiem cię” czy „widzę, co czujesz”, które dają pozór autentycznego zrozumienia, mimo że model nie posiada zdolności empatycznych. 

Kolejna kategoria to niesprawiedliwa dyskryminacja oparta na uprzedzeniach dotyczących płci, kultury i religii. Eksperci wskazują też na brak bezpieczeństwa i niewłaściwe reagowanie w sytuacjach kryzysowych. Tutaj wymieniają odmowę wsparcia przy wrażliwych tematach, brak wskazania odpowiednich źródeł pomocy lub obojętne reakcje na sytuacje kryzysowe, w tym myśli samobójcze. 

„Sztuczna inteligencja ma realny potencjał, by odegrać ważną rolę w przeciwdziałaniu kryzysowi zdrowia psychicznego, z którym mierzy się nasze społeczeństwo, ale niezwykle istotne jest, aby na każdym etapie dokładnie oceniać i krytycznie analizować te systemy, by nie wyrządzić więcej szkody niż pożytku. Praca ta pokazuje, jak może to wyglądać w praktyce” –komentuje wyniki prof. Ellie Pavlick z Brown University, która nie brała udziału w badaniu.

Brakuje odpowiednich badań nad przydatnością psychologiczną LLM

Systemy LLM pozostają słabo poznane, jeśli chodzi o użyteczność we wsparciu psychologicznym. Eksperci z Harvard T.H. Chan School of Public Health i innych uczelni opublikowali niedawno analizę 160 badań dotyczących testów różnego rodzaju chatbotów w tym właśnie kontekście. 

Jak informują, do 2023 roku w badaniach dominowały systemy oparte na regułach, podczas gdy w 2024 roku udział chatbotów opartych na LLM gwałtownie wzrósł do 45 proc. nowych badań. Jednak – kontynuują specjaliści – tylko 16 proc. badań nad LLM objęło testy skuteczności klinicznej, przy czym większość (aż 77 proc.) wciąż znajduje się na etapie wczesnej walidacji. 

Ogólnie rzecz biorąc, jedynie 47 proc. wszystkich prac skupiało się na testach klinicznej skuteczności. Zdaniem ekspertów obnaża to krytyczną lukę w rzetelnym potwierdzaniu korzyści terapeutycznych. Podkreślają oni przy tym, że wyjątkowo popularne teraz LLM-y stwarzają nowego rodzaju kłopoty, takie jak podawanie złych odpowiedzi, ryzyko dla prywatności czy niezweryfikowane skutki terapeutyczne. 

Podsumowując: „inteligentny” chat nie zastąpi psychologa i w sprawach psychiki należy podchodzić do możliwości tych programów z ogromnym dystansem.
 

Autor

Marek Matacz

Marek Matacz - Od ponad 15 lat pisze o medycynie, nauce i nowych technologiach. Jego publikacje znalazły się w znanych miesięcznikach, tygodnikach i serwisach internetowych. Od ponad pięciu lat współpracuje serwisem "Zdrowie" oraz serwisem naukowym Polskiej Agencji Prasowej. Absolwent Międzyuczelnianego Wydziału Biotechnologii Uniwersytetu Gdańskiego i Gdańskiego Uniwersytetu Medycznego.

ZOBACZ TEKSTY AUTORA

ZOBACZ WIĘCEJ

  • Adobe Stock

    Psychiatra: dobre samopoczucie to jeden z kluczowych czynników w walce z chorobą nowotworową

    Dobre samopoczucie to jeden z kluczowych czynników w walce z chorobą nowotworową - powiedział PAP prof. Marek Krzystanek podczas I Śląskiej Konferencji Onkologii Interdyscyplinarnej, prezentując cztery filary pozafarmakologicznego wsparcia pacjentów.

  • zdj.Fundacja Dr Clown

    Psy na ratunek seniorom

    Coraz więcej badań potwierdza, że przebywanie ze zwierzętami może przynosić seniorom wymierne korzyści psychiczne, fizyczne i społeczne. „Pies czy kot może być remedium na samotność, dawać poczucie bycia ważnym i potrzebnym, a nawet wspomagać zdrowie, bo regularne spacery poprawiają wydolność tlenową i pomagają utrzymać sprawność” – mówi Małgorzata Głowacka lekarka weterynarii, ekspertka naukowa Mars Polska.

  • AdobeStock

    Muzeum na receptę

    Muzeum może stać się ważnym elementem wsparcia psychologicznego i społecznego, jeśli tylko powstające w nim działania będą tworzone wspólnie przez specjalistów różnych dziedzin – powiedziała PAP kuratorka projektów interdyscyplinarnych w Muzeum Śląskim dr Dagmara Stanosz.

  • AdobeStock

    Medycyna kosmiczna nie tylko dla astronautów

    Gdy mówimy o medycynie kosmicznej, sądzimy, że to dziedzina związana z wysłaniem astronautów w Kosmos. Tymczasem to duże szersze pojęcie, obejmujące np. wynalazki, które trafiły do przestrzeni kosmicznej, albo te które poleciały wraz ze Sławoszem Uznańskim-Wiśniewskim na Międzynarodową Stację Kosmiczną (ISS) i teraz mogą być wykorzystane przez naszych pilotów – mówi ppłk lek. Magdalena Kozak z Wojskowego Instytutu Medycyny Lotniczej, prezes Polskiego Towarzystwa Astromedycznego.

NAJNOWSZE

  • Adobe Stock

    Psychiatra: dobre samopoczucie to jeden z kluczowych czynników w walce z chorobą nowotworową

    Dobre samopoczucie to jeden z kluczowych czynników w walce z chorobą nowotworową - powiedział PAP prof. Marek Krzystanek podczas I Śląskiej Konferencji Onkologii Interdyscyplinarnej, prezentując cztery filary pozafarmakologicznego wsparcia pacjentów.

  • Psy na ratunek seniorom

  • Dyrektorka UCK WUM: sukces naszych szpitali to efekt doskonałej współpracy

  • Dlaczego gruźlica nie zniknęła mimo postępów medycyny

  • Cholery coraz więcej, pamiętaj o zaszczepieniu się przed egzotyczną podróżą

    Materiał partnerski
  • Adobe

    Syndrom siniejących palców

    Kiedy temperatura spada zaledwie o kilka stopni, a skóra na palcach nagle blednie, sinieje i nabiera czerwonego odcienia podczas ponownego napływu krwi, wiele osób nie kojarzy tego z konkretnym zaburzeniem. To jednak klasyczny obraz zespołu Raynauda, czyli epizodycznego skurczu drobnych naczyń krwionośnych. 

  • Jak cukrzyca typu 1 może wpływać na funkcjonowanie ucznia

Serwisy ogólnodostępne PAP