Czy sztuczna inteligencja jest bezpieczna dla psychiki?

Naukowcy sprawdzają, jak ludzka psychika radzi sobie z kontaktami ze sztuczną inteligencją (SI lub AI). Według wstępnych wyników bywa ona oceniana jako bardziej empatyczna od ludzi, z rzadka może prowokować do powstawania więzi emocjonalnych, ale może też stać się przyczyną stresu.

AdobeStock
AdobeStock

Mieszkający na Florydzie Sewell Setzer miał 14 lat, kiedy odebrał sobie życie. Jego matka Megan Garcia o tę śmierć oskarżała Character.ai. Przed tragedią nastolatek długie godziny miał spędzać bowiem na rozmowach ze wspomnianym chatbotem. Garcia twierdzi, że nietypowa relacja z komputerem nasiliła depresję, na którą cierpiał chłopiec. Co więcej, w jednej z rozmów program miał właściwie popychać nieletniego do odebrania sobie życia. Na ile faktycznie chatbot miał wpływ na śmierć chłopca, trudno orzec. Nawet jeśli tak było, szczęśliwie wydaje się to wyjątek – mimo rosnącego rozpowszechnienia narzędzi opartych na sztucznej inteligencji nie zalewają nas doniesienia o związanych z nią dramatach. Jednak SI to nowość, z którą ludzka psychika musi mierzyć się coraz częściej, w coraz większej liczbie sytuacji prywatnych i zawodowych. Czy to będzie sprzyjało ludzkiej psyche, czy raczej może zaszkodzić? Pierwsze badania rzucają na tę sprawę nieco światła.

Komputer doskonale udaje empatię

Po pierwsze, sposób działania niektórych systemów SI może sprzyjać powstawaniu emocjonalnej więzi między człowiekiem i komputerem. Przeprowadzone na University of Toronto badanie wskazało bowiem, że SI często stwarza pozory bycia bardziej empatyczną, niż człowiek. W projekcie tym, ponad 550 ochotników czytało sztucznej inteligencji opisy osobistych doświadczeń o pozytywnym lub negatywnym wydźwięku, a następnie porównywało odpowiedzi udzielane przez SI oraz przez ludzi - zarówno ekspertów ds. interwencji kryzysowej, jak i osoby bez specjalistycznej wiedzy. Wyniki wykazały, że uczestnicy preferowali odpowiedzi generowane przez SI i oceniali je jako bardziej empatyczne w porównaniu do ludzkich. SI oceniano jako bardziej responsywną — wyrażającą zrozumienie, akceptację i troskę. Zależności te utrzymywały się zarówno, gdy ujawniono tożsamość autorów odpowiedzi oraz gdy tożsamość autora była jawna.

Uważasz chatbota za przyjaciela? Możesz należeć do grupy ryzyka

Niedawno zespół z Massachusetts Institute of Technology opublikował dwie prace na podstawie badań przyglądających się temu, jakie relacje ludzie tworzą z inteligentnymi chatami. W jednym z projektów badacze wykorzystali przeprowadzoną przez OpenAI automatyczną analizę prawie 40 mln interakcji z ChatGPT. Wyniki połączono z osobistymi ankietami, co pozwoliło lepiej zrozumieć rzeczywiste sposoby korzystania z narzędzia firmy. 

Naukowcy przeprowadzili dodatkowo badanie z udziałem prawie tysiąca bliżej obserwowanych uczestników przez cztery tygodnie korzystających z ChatGPT. Ekspertów interesowały wzorce korzystania ludzi z SI oraz różne aspekty tych interakcji, takie jak poziom poczucia samotności, interakcje z innymi ludźmi, emocjonalne uzależnienie od chatbota czy problematyczne korzystanie z SI. Na podstawie tych badań wyciągnęli kilka wniosków. 

Po pierwsze okazało się, że emocjonalne zaangażowanie w rozmowy z ChatGPT jest jednak rzadkie w rzeczywistym użytkowaniu. W zdecydowanej większości analizowanych rozmów nie występowały sygnały emocjonalne wskazujące na empatię, uczucia czy wsparcie. Nawet wśród osób intensywnie używających programu, wysoki poziom emocjonalnego zaangażowania dotyczył tylko niewielkiej grupy. Jednak – uwaga – ta podgrupa znacznie częściej zgadzała się ze stwierdzeniami typu „uważam ChatGPT za przyjaciela”. 

Ponadto badania pokazały, że rozmowy o charakterze osobistym  – zawierające więcej wypowiedzi nacechowanych emocjonalnych zarówno ze strony użytkownika, jak i komputera – wiązały się z wyższym poziomem samotności, choć przy umiarkowanym korzystaniu wykazywały niższy poziom emocjonalnego uzależnienia i problematycznego użycia. 

Co może zaskakiwać, to rozmowy na nieosobiste tematy sprzyjały wzrostowi emocjonalnego uzależnienia, zwłaszcza przy intensywnym użytkowaniu. Istotne okazało się również nastawienie samego użytkownika – jego potrzeby emocjonalne i osobiste postrzeganie SI. 

Osoby wykazujące silniejszą skłonność do przywiązywania się w relacjach oraz te, które postrzegały SI jako przyjaciela pasującego do ich osobistego życia, były bardziej narażone na negatywne skutki korzystania z chatbota. 

„Badania te stanowią istotny, pierwszy krok w zrozumieniu wpływu zaawansowanych modeli SI na ludzkie przeżycia i dobrostan” – podsumowują naukowcy z MIT.

Sztuczna inteligencja może przyczyniać się do stresu i wypalenia zawodowego

Odrębnych problemów nastręczać może wprowadzanie rozwiązań sztucznej inteligencji w miejscu pracy. Wskazał na to zespół z południowokoreańskiego Uniwersytetu w Ulsan. Naukowcy zwracają uwagę, że powszechne i gwałtowne wdrażanie SI wyraźnie zmieniało charakter pracy, niosąc ze sobą zarówno nowe szanse, jak i wyzwania dla zatrudnionych. 

W badaniu z udziałem ponad 400 profesjonalistów badacze sprawdzili wpływ wprowadzenia sztucznej inteligencji na poziom stresu i wypalenia zawodowego. Przyjrzeli się też poczuciu osobistej skuteczności w uczeniu się współpracy z SI. Okazało się niestety, że technologia ta może nasilać ryzyko wypalenia zawodowe, choć robi to pośrednio – znacząco podnosząc poziom stresu związanego z pracą. Efekt ten był częściowo łagodzony przez wyższą zdolność do nauki obsługiwania SI. 

„Wyniki te jasno pokazują znaczenie uwzględniania pośredniczących i moderujących mechanizmów, które kształtują doświadczenia pracowników w kontekście wdrażania sztucznej inteligencji” – piszą naukowcy w swojej publikacji. 

„Rezultaty sugerują również, że organizacje powinny proaktywnie przeciwdziałać potencjalnym negatywnym skutkom wdrażania SI dla dobrostanu pracowników. Mogą to zrobić, wdrażając strategie zarządzania stresem zawodowym i wspierania poczucia skuteczności w uczeniu się pracy z SI. Badanie to uwypukla potrzebę podejścia zorientowanego na człowieka, które stawia dobrostan pracowników na równi z postępem technologicznym” – dodają autorzy. 

Takie podejście zapewne sprawdzi się także w osobistym użytkowaniu sztucznej inteligencji – podobnie jak odpowiednia doza ostrożności i dystansu.

Autor

Marek Matacz

Marek Matacz - Od ponad 15 lat pisze o medycynie, nauce i nowych technologiach. Jego publikacje znalazły się w znanych miesięcznikach, tygodnikach i serwisach internetowych. Od ponad pięciu lat współpracuje serwisem "Zdrowie" oraz serwisem naukowym Polskiej Agencji Prasowej. Absolwent Międzyuczelnianego Wydziału Biotechnologii Uniwersytetu Gdańskiego i Gdańskiego Uniwersytetu Medycznego.

ZOBACZ TEKSTY AUTORA

ZOBACZ PODOBNE

  • RAK STOP - informacja prasowa

    Materiał promocyjny

    Jak ograniczyć śmiertelność z powodu raka piersi? Eksperci apelują o szerszy dostęp do nowoczesnych narzędzi diagnostycznych i podkreślają emocjonalny wymiar choroby. 13 maja br. w Sejmie RP odbyło się posiedzenie Parlamentarnego Zespołu ds. Profilaktyki Nowotworowej – RAK STOP, poświęcone jednemu z najpoważniejszych wyzwań zdrowotnych w Polsce: jak skutecznie zmniejszyć śmiertelność z powodu raka piersi i zachęcić kobiety do badań profilaktycznych. W gronie ekspertów i pacjentek wiele miejsca poświęcono potrzebie spersonalizowanego leczenia, roli testów wielogenowych oraz emocjonalnemu wymiarowi choroby, o którym wciąż mówi się zbyt rzadko.

  • Supermoce ludzkiego ciała

    W dzisiejszym świecie, gdzie klimatyzacja ratuje nas od upałów, a aspiryna od gorączki, łatwo zapomnieć, że nasze ciała to prawdziwe maszyny przetrwania. Zanim zbudowaliśmy domy, wytworzyliśmy ciepłe odzienie, zanim ktoś wpadł na pomysł centralnego ogrzewania – byliśmy zdani wyłącznie na nasze biologiczne możliwości. I właśnie tam, w głębi naszego ciała, ukryte są historie adaptacji tak niesamowitych, że brzmią niemal jak fantastyka naukowa.

  • Oddychaj wolniej

    Powolne oddychanie pomaga nie tylko w codziennym stresie, ale i w łagodzeniu skutków zaburzeń nerwicowych czy PTSD. Według najnowszych badań kontrolowane wdechy i wydechy obniżają ciśnienie krwi, pozwalają zasnąć i poprawiają funkcje poznawcze.

  • AdobeStock

    VR - nowe narzędzie do leczenia fobii

    Zdaniem dr Agnieszki Popławskiej, Kierownika Zakładu Psychologii Organizacji i Marketingu Uniwersytetu SWPS w Sopocie psychoterapie z wykorzystaniem AI to tylko kwestia czasu. VR-owe gogle są już powszechne, teraz czas na specjalne VR-owe pokoje, gdzie można np. zmierzyć się z fobiami albo popracować nad uzależnieniami. Specjalistka przekonuje, że terapia wspomagana VR daje dużo lepsze efekty.

NAJNOWSZE

  • Badanie: większość Polaków za zakazem reklam alkoholu

    Piwo to najczęstszy wybór młodzieży sięgającej po alkohol po raz pierwszy. Nie można w tym kontekście nie wspomnieć o oddziaływaniu reklam, nawet jeśli na ekranie lub billboardzie pojawia się etykieta „zero procent”. Dlatego Fundacja GrowSpace rusza z kampanią antyalkoholową „Zero procent prawdy”. Zlecony przez nią sondaż potwierdza słuszność tej decyzji.

  • Trzeba śledziony, by wyleczyć serce

  • Badania kliniczne szansą chorych na raka dzieci

  • Ćwicz dla siebie i dziecka

  • Czerniak – 5 liter, które ratują życie

  • AdobeStock

    VR - nowe narzędzie do leczenia fobii

    Zdaniem dr Agnieszki Popławskiej, Kierownika Zakładu Psychologii Organizacji i Marketingu Uniwersytetu SWPS w Sopocie psychoterapie z wykorzystaniem AI to tylko kwestia czasu. VR-owe gogle są już powszechne, teraz czas na specjalne VR-owe pokoje, gdzie można np. zmierzyć się z fobiami albo popracować nad uzależnieniami. Specjalistka przekonuje, że terapia wspomagana VR daje dużo lepsze efekty.

  • Źródło głosu

  • Supermoce ludzkiego ciała

Serwisy ogólnodostępne PAP