Chatbot-psychoterapeuta? Lepiej zachować ostrożność

Eksperci analizują coraz intensywniej rozwijane programy, które dzięki sztucznej inteligencji (AI) mają pomagać osobom doświadczających kryzysu psychicznego, a nawet – jak sugeruje niekiedy marketing – potencjalnie zastąpić terapeutę. Wniosek? Przy ich stosowaniu trzeba bardzo uważać.

AdobeStock
AdobeStock

Za sprawą galopujących prac nad sztuczną inteligencją powstaje coraz więcej chatbotów i aplikacji, które mają wspierać ludzi doświadczających kryzysów psychicznych. Niekiedy wprost pojawiają się sugestie, że tego rodzaju programy mogłyby zastąpić psychoterapeutę. Choć niektóre wydają się całkiem sporo oferować, specjaliści przestrzegają – w żadnym wypadku nie należy ich traktować jak psychologa.

Chatboty – potencjalne uzupełnienie, ale nie alternatywa dla terapii

„Terapeutyczne” chatboty mają istotny potencjał, aby uzupełnić braki tradycyjnej pomocy w zakresie zdrowia psychicznego – stwierdzili niedawno psycholodzy z Nottingham Trent University. Naukowcy doszli do takiego wniosku na podstawie ponad 30 poświęconych tym technologiom badań. 

Analiza skupiła się na trzech obszarach: zaangażowaniu w terapię, postawie użytkownika oraz skuteczności. Objęte przeglądem badania obejmowały różnorodne grupy, w tym młodzież, absolwentów, osoby starsze, cierpiące na zespół jelita drażliwego, z zaburzeniami odżywiania, z lękami lub depresją, z demencją oraz cierpiące na przewlekły ból. 

Chatboty okazały się być pomocne szczególnie w łagodzeniu objawów depresji, ale także w takich stanach, jak bezsenność, zaburzenia odżywiania, ataki paniki czy ADHD. Wyniki sugerują przy tym, że programy mogą zachęcić do zaangażowania w terapię na zadowalającym poziomie. Badania wskazały nawet na możliwość rozwijania pewnej terapeutycznej relacji między użytkownikiem i chatbotem. 

Rys. Krzysztof "Rosa" Rosiecki

Sztuczna inteligencja. Doktor komputer wykryje chorobę i będzie ją leczyć?

Sztuczna inteligencja coraz lepiej stawia diagnozy, przewiduje, kto może zachorować, przegląda lekarskie notatki. Co więcej, wygląda na to, że nieporównanie szybciej od człowieka planuje skomplikowaną terapię, a nawet wymyśla nowe leki. Czy będziemy chodzić do doktora AI?

Za kluczowy problem uznano jednak użyteczność – wiele chatbotów uzyskało wyniki poniżej akceptowalnego progu w tym obszarze. Jasno wskazuje to na potrzebę ulepszeń w zakresie projektowania takich systemów, w tym interfejsu użytkownika. Jest to szczególnie istotne w przypadku osób starszych i osób o niższej znajomości technologii – uznali eksperci. 

„Z badań wynika, że chatboty mogą budować poczucie więzi i zaufania, co jest kluczowe dla ich wykorzystania w terapii. Dowody sugerują, że programy te mogą poprawić dostęp do pomocy, zapewnić wygodne wsparcie i potencjalnie realizować skuteczne interwencje w przypadku określonych schorzeń i stopni ich nasilenia. Otwiera to możliwość wykorzystania chatbotów do wypełnienia luk w tradycyjnych usługach zdrowia psychicznego, zwłaszcza w zakresie dostępności, niedoborów kadr i opłacalności. Programy takie mogą być również cennym narzędziem do zachęcania osób z problemami na gruncie zdrowia psychicznego, zwłaszcza tymi najbardziej stygmatyzowanymi, do szukania profesjonalnej pomocy” – twierdzi dr Andrew Harris, jeden z autorów pracy.

„Jednak ważne jest, aby zauważyć, że technologie te powinny być postrzegane jako narzędzia uzupełniające, a nie zastępujące wykwalifikowanych specjalistów zdrowia psychicznego. Natomiast dalsze badania powinny dotyczyć tego, jak skutecznie integrować tradycyjne podejścia psychologiczne, takie jak terapia poznawczo-behawioralna, z zaawansowanymi technologiami” – zastrzega psycholog.

Komputerowy terapeuta? Nie taki nowy pomysł

Choć obecnie szybko przybywa narzędzi komputerowych o zastosowaniach (lub przynajmniej reklamowych jako mających takie przeznaczenie) terapeutyczne, idea „wirtualnego terapeuty” nie jest nowa. Już w latach 60. XX w. Joseph Weizenbaum stworzył w MIT Artificial Intelligence Laboratory program ELIZA (https://www.youtube.com/watch?v=zhxNI7V2IxM). 

Koncepcja programu Weizenbauma polegała na symulowaniu w formie tekstowej odpowiedzi, których mógłby udzielać terapeuta podczas sesji. Program miał służyć analizie interakcji ludzi z maszynami. Najsłynniejszy wariant nazwany DOCTOR symulował przy tym jedną z popularnych ówcześnie technik terapeutycznych. Choć skrypty stosowane przez komputer były w istocie bardzo proste i opierały się na reagowaniu na określone słowa kluczowe lub ich brak, niejedną osobę udawało się przekonać, że rozmawia z człowiekiem – a przynajmniej że po stronie maszyny zachodzi zrozumienie wpisywanych komunikatów. 

zdj. AdobeStock

Czy sztuczna inteligencja pomoże psychiatrom?

Choć psychiatria wolniej niż wiele innych dziedzin medycyny przyswaja sobie technologie oparte na sztucznej inteligencji (SI), z czasem będzie z tej technologii coraz bardziej korzystać – twierdzą naukowcy. Po pokonaniu pewnych wyzwań może ona usprawnić diagnozy i pomagać w leczeniu. 

Weizenbaum był ponoć zaniepokojony, gdy jego sekretarka poprosiła, aby zostawić ją samą z ELIZĄ, żeby mogła odbyć z nią „prawdziwą rozmowę”. „Nikt tego nie rozumie” – miał tłumaczyć później sfrustrowany naukowiec. „Tam nikogo nie ma” – podkreślał.

Nie rozpoznają szkodliwych zachowań

Z tematem chatbotów, które mają pomagać w terapii, rozprawiają się na łamach „The Conversation” specjaliści w dziedzinie etyki sztucznej inteligencji i technologii związanych ze zdrowiem – prof. Jean-Christophe Bélisle-Pipon oraz jego koleżanka Zoha Khawaja, oboje z Simon Fraser University. Posiłkują się przy tym licznymi badaniami. 

Eksperci przyznają, że ze względu na obecne bariery fizyczne i finansowe, osoby z problemami na gruncie zdrowia psychicznego mogą szukać pomocy właśnie w chatbotach i innych narzędziach opartych na sztucznej inteligencji. Jak jednak podkreślają, użytkownicy mogą przeceniać korzyści terapeutyczne i jednocześnie umniejszać ograniczenia takich technologii. Rezultatem tego, zdaniem specjalistów, może być nawet pogorszenie stanu danej osoby. 

Bélisle-Pipon i Khawaja wyrażają zastrzeżenia m.in. do niewłaściwego, niekiedy wprowadzającego w błąd marketingu takich aplikacji. Jak twierdzą, może on wskazywać przykładowo, że chatbot oferuje konkretną terapię czy wykorzystuje „inne podejście do leczenia”.

Fot.P.Werewka/PAP

Sztuczna inteligencja w medycynie

Rozwojowi sztucznej inteligencji (SI), zdaniem prof. Marcina Moniuszko, rektora Uniwersytetu Medycznego w Białymstoku, towarzyszy szereg nieuzasadnionych lęków. Tymczasem jest ona bliżej nas, niż nam się wydaje: w telefonach, bankowości, algorytmach kierujących mediami społecznościowymi. Jest, oczywiście, i w medycynie.

Tymczasem, jak podkreślają badacze, takie systemy nie potrafią i nie mogą prowadzić psychoterapii. Z wielu powodów. 

„Ten rodzaj taktyki marketingowej może wykorzystywać zaufanie użytkowników do systemu opieki zdrowotnej, zwłaszcza gdy programy takie są sprzedawane jako działające «ściśle we współpracy z terapeutami»” – przestrzegają autorzy artykułu. 

Inny podstawowy problem dotyczy terapeutycznej więzi, która zwykle wytwarza się między klientem i psychologiem czy psychiatrą i stanowi ważny, pomocny element terapii. W przypadku pracy z chatbotem użytkownik może mieć mylne, szkodliwe wrażenie, że taką więź stworzył. Zagrożenie to jest szczególnie wysokie dzięki coraz doskonalszemu naśladowaniu ludzi przez chatboty. 

Ponadto, jak zwracają uwagę specjaliści, takie aplikacje często nie są w stanie rozpoznać szkodliwych zachowań użytkownika czy uwzględnić różnic kulturowych. Nie mają też kompetencji, aby wspierać użytkowników w rozwijaniu zdrowej autonomii, jak to zwykle czynią terapeuci. 

Zdaniem naukowców najważniejsze jest zatem, aby pamiętać o ograniczeniach programów i nie mylić chatbotów z prawdziwymi terapeutami. Może w tym pomóc uczciwy, rzetelny marketing, który nie będzie sugerował nierealnych potencjalnych korzyści i nieadekwatnie zapewniał o bezpieczeństwie.

Wynika z tego, że nie warto raczej całkowicie przekreślać wartości „terapeutycznych” chatbotów, ale trzeba zachować do nich spory dystans. Jeśli ktoś naprawdę potrzebuje pomocy psychologicznej, powinien zgłosić się do specjalisty i ewentualnie zapytać o jego opinię co do użycia takiego programu.

Autor

Marek Matacz

Marek Matacz - Od ponad 15 lat pisze o medycynie, nauce i nowych technologiach. Jego publikacje znalazły się w znanych miesięcznikach, tygodnikach i serwisach internetowych. Od ponad pięciu lat współpracuje serwisem "Zdrowie" oraz serwisem naukowym Polskiej Agencji Prasowej. Absolwent Międzyuczelnianego Wydziału Biotechnologii Uniwersytetu Gdańskiego i Gdańskiego Uniwersytetu Medycznego.

ZOBACZ TEKSTY AUTORA

ZOBACZ PODOBNE

  • Adobe

    Chrzan – świąteczny superfood

    Gdy w Wielkanoc zasiadamy do stołu, chrzan pojawia się w wielu domach jako konieczny dodatek do jaj, białej kiełbasy czy żurku. Ten ostry, wyrazisty w smaku korzeń ma właściwości, którym zawdzięcza uznanie nie tylko smakoszy, lecz także lekarzy i naukowców. 

  • Adobe

    Hormony mniej znane

    Większość z nas kojarzy takie hormony, jak insulina czy adrenalina, które odgrywają kluczowe role w regulacji podstawowych funkcji organizmu. Szeroko znane są też hormony płciowe – estrogen czy testosteron. Jednak ludzki układ hormonalny produkuje ponad 70 takich substancji, także szereg mniej znanych, wręcz tajemniczych hormonów. Naukowcy dopiero badają ich rolę w organizmie.

  • AdobeStock/Andrii

    Niewykorzystane możliwości leczenia choroby Parkinsona

    Materiał partnerski

    Sytuacja chorych z chorobą Parkinsona w ostatnim czasie znacznie się pogorszyła. Pilotaż zawierający programu opieki koordynowanej nad pacjentem z chorobą Parkinsona, przygotowany już kilka lat temu, wciąż leży w ministerialnej szufladzie, a nowy plan finansowy dla programów lekowych w neurologii praktycznie zredukował możliwości leczenia chorych z zaawansowaną chorobą Parkinsona. Są w leczeniu tej choroby pewne sukcesy, ale brakuje nam kompleksowego myślenia. Konieczne jest uporządkowanie systemu opieki nad tymi chorymi – apelowali specjaliści podczas debaty, która odbyła się w Centrum Prasowym PAP z okazji Światowego Dnia Chorych na Chorobę Parkinsona.

  • Adobe Stock/Remigiusz Góra

    Urządzenia „na palec”, opaski mierzące glikemię – w terapii to niebezpieczne

    Polskie Towarzystwo Diabetologiczne oraz Sekcja Edukacji i Diabetologii Społecznej ostrzegają przed nieinwazyjnymi urządzeniami do pomiaru glikemii, jako niebezpiecznymi dla życia i zdrowia osób z cukrzycą, ponieważ nie dają precyzyjnych pomiarów. Nie zostały też dopuszczone do obrotu przez instytucje nadzoru medycznego.

NAJNOWSZE

  • Adobe

    Chrzan – świąteczny superfood

    Gdy w Wielkanoc zasiadamy do stołu, chrzan pojawia się w wielu domach jako konieczny dodatek do jaj, białej kiełbasy czy żurku. Ten ostry, wyrazisty w smaku korzeń ma właściwości, którym zawdzięcza uznanie nie tylko smakoszy, lecz także lekarzy i naukowców. 

  • Komórki macierzyste – nadzieja w leczeniu cukrzycy

  • Czy rządzi nami „gadzi mózg”?

  • Równowaga energetyczna klucz do zdrowia

  • Etykiety alkoholu powinny ostrzegać o ryzyku raka

  • AdobeStock

    Trendy na TikToku: szkodliwe, a nawet niebezpieczne

    Obserwujemy dziś 10 tys. dzieci w wieku od 10 do 18 lat, które publikują niepokojące i niebezpieczne treści w aplikacji TikTok. Ich wspólne motto to „nie radzę sobie z życiem". Dzielą się smutkiem, żalem, treściami autoagresywnymi czy suicydalnymi. Gdy sytuacja jest krytyczna (np. dziecko siedzi na moście lub na torach), zawiadamiamy odpowiednie organy – mówi Kinga Szostko, twórczyni portalu bezpiecznedziecko.org, w którym edukuje rodziców przed zagrożeniami czyhającymi na najmłodszych w sieci.

  • Wielkanocna rzeżucha kontra złogi amyloidu

  • Bullying karmi się ciszą i samotnością