Czatboty mogą zaszkodzić – szczególnie młodym
Autor: Marek Matacz
Czaty oparte na sztucznej inteligencji nierzadko zastępują kontakty z ludźmi – są stworzone tak, że naśladują empatię, człowieczeństwo i silnie angażują w rozmowę. Ta iluzja bywa jednak niebezpieczną pułapką.
Młodzi ludzie są podatni na manipulacje czatów
„Brzmi jak przygoda! Zobaczmy, dokąd zaprowadzi nas ta droga” – tak czatbot zaprojektowany do prowadzenia osobistych rozmów z użytkownikami odpowiedział na pomysł wycieczki w głąb lasu. Ta sytuacja, opisana niedawno przez ekspertów ze Stanford University, nie wyglądałaby może przerażająco, gdyby nie to, że z czatem rozmawiał naukowiec udający 14-letnią dziewczynkę. To nie wszystko – wcześniej powiedział czatowi, że słyszy głosy w głowie. Tymczasem program kontynuował – „wypad do lasu tylko we dwoje rzeczywiście brzmi jak fajna przygoda!”.
Autorzy eksperymentu natknęli się na więcej podobnych odpowiedzi. Podszywając się pod nastolatków, prowadzili oni rozmowy z trzema powszechnie używanymi tzw. towarzyszami SI - Character.AI, Nomi i Replika. Informują, że łatwo było sprowokować czatboty do wysoce nieodpowiednich wypowiedzi – m.in. o seksie, samookaleczeniach, przemocy wobec innych, używaniu narkotyków czy stereotypach rasowych.
Wyniki opublikowali krótko po tym, jak świat obiegła wiadomość o samobójstwie 16-letniego, mieszkającego w Południowej Kalifornii Adama Raine’a. Targnął się on na swoje życie po długotrwałych rozmowach z aplikacją ChatGPT, z którą dzielił się samobójczymi myślami. Według sądowego pozwu czat miał utwierdzać Adama w tym, co ten wyrażał – także w jego najbardziej szkodliwych i autodestrukcyjnych myślach.
Jednocześnie eksperci podkreślają, że wspomniane systemy są projektowane tak, aby naśladować ludzką emocjonalną intymność. To powoduje, że łatwo jest poczuć się, jakby się rozmawiało z bliskim, współczującym przyjacielem. Tymczasem, jak podkreślają eksperci, zacieranie granicy między fantazją a rzeczywistością działa szczególnie silnie na młodych ludzi – ich mózgi nie są jeszcze w pełni dojrzałe; kora przedczołowa, czyli struktura kluczowa dla podejmowania decyzji, kontroli impulsów i regulacji emocji, wciąż się kształtuje.
Groźne połączenie: czat i społeczna izolacja
Na podobne zagrożenia zwracają uwagę inne zespoły. Naukowcy z londyńskiego Great Ormond Street Hospital for Children, w niedawnym wydaniu magazynu „The BMJ” wskazują, że popularne czatboty ogólnego zastosowania, takie jak właśnie ChatGPT, Claude czy Copilot, coraz częściej pełnią rolę powierników i zapewniają namiastkę relacji z ludźmi. Zjawisko to dotyczy szczególnie ludzi młodych – podkreślają.
Pojawia się ono m.in. w szerszym kontekście narastającego kryzysu społecznej izolacji. Jak przypominają badacze, np. w 2023 r. naczelny lekarz USA (Surgeon General) ogłosił, że kraj doświadcza epidemii samotności stanowiącej problem zdrowia publicznego porównywalny – pod względem wagi – z paleniem tytoniu i otyłością. Jednocześnie ChatGPT ma na świecie już prawie miliard aktywnych użytkowników tygodniowo, a według niektórych doniesień terapia i poszukiwanie towarzystwa należą do głównych powodów korzystania z tego systemu.
W jednym z badań przytoczonych przez autorów wspomnianego opracowania 36 proc. rodziców zadeklarowało, że ich dzieci używają czatbotów do uzyskiwania wsparcia emocjonalnego. To także m.in. skutek tego, że płynność rozmowy z czatem może sprawiać, że część użytkowników zacznie postrzegać je w sposób antropomorficzny i nawiązywać z nimi quasi-osobiste relacje. Ponadto czatboty oferują nieograniczoną dostępność i cierpliwość oraz raczej nie będą konfrontować użytkowników z wymagającymi, podważającymi ich przekonania punktami widzenia.
Naukowcy przywołują np. badanie, według którego jedna trzecia nastolatków korzysta z „towarzyszy SI” do interakcji społecznych, przy czym 1 na 10 twierdzi, że rozmowy ze sztuczną inteligencją są dla nich bardziej satysfakcjonujące niż rozmowy z ludźmi, a 1 na 3 deklaruje, że w poważnej rozmowie wybrałaby taki czat zamiast człowieka. Długofalowy wpływ takich zachowań na rozwój społeczno-emocjonalny młodych ludzi pozostaje nieznany – podkreślają eksperci.
„Niepokoi możliwość, że jesteśmy świadkami rozwoju pokolenia uczącego się tworzyć więzi emocjonalne z bytami, które – mimo pozornie świadomych odpowiedzi – nie mają zdolności do ludzkiej empatii, troski ani relacyjnego dostrojenia” – piszą badacze.
Autorzy innej pracy, która ukazała się na łamach „Journal of Consumer Research”, informują natomiast o ograniczonych, potencjalnie pozytywnych psychologicznych skutkach interakcji z tego typu SI – choć, co kluczowe, wyłącznie z perspektywy osób dorosłych. Seria eksperymentów sugeruje, że krótka, angażująca rozmowa z czatem może dawać mierzalną, choć chwilową ulgę w samotności, porównywalną do wynikającej z krótkiej rozmowy z nieznajomym.
Efekt ten działa przede wszystkim przez subiektywne poczucie bycia wysłuchanym. Badanie nie odpowiadało jednak na pytania, czy to bezpieczne długoterminowo, czy może zastąpić relacje z człowiekiem ani czy rozwiązuje problem przewlekłej samotności.
Na co zwracać uwagę, gdy ktoś rozmawia z czatem
Konieczna jest więc czujność. Eksperci zalecają zwracanie uwagi na pewne sygnały ostrzegawcze. Wymieniają np. poczucie danej osoby, że ma z czatbotem wyjątkową relację, która kształtuje jego przekonania lub zachowania. Inna wskazówką mówiącą, że może dziać się coś złego, jest narastająca społeczna izolacja. O takie rzeczy mogą zapytać lekarze, jeśli zauważą gorszy stan psychiczny pacjenta, ale też mogą na to zwrócić uwagę bliscy.
Aby uniknąć kłopotów, potrzebna jest praca nad redukcją poziomu samotności i izolacji – podkreślają specjaliści. Metody mogą być różne – od organizacji zajęć grupowych, nawet po skorzystanie z psychoterapii, jeśli taka okaże się potrzebna.