Skip to main content

Czy od ChatGPT można uzależnić się emocjonalnie? Badacze to sprawdzili.

To było do przewidzenia, że ludzie szybko zaczną traktować czatboty jak internetowych znajomych. Sam w trakcie korzystania z ChatGPT komunikuje się dość służbowym językiem, wydając krótkie i zwięzłe polecenia, ale w moim bliskim otoczeniu są jednak osoby, które z AI rozmawiają jak z człowiekiem, a konwersacje wykraczają dalece poza potrzeby zawodowe – mam na myśli rozmowy o emocjach, sensie istnienia czy codziennych rozterkach. Ciężko mi się przełamać do traktowania czatbota jako wirtualnego terapeuty, ale rozumiem to podejście – OpenAI stworzyło bowiem narzędzie, które potrafi zaskakiwać ciepłem, empatią i wyrozumiałością. Z tym trzeba jednak uważać, bo – jak zauważają naukowcy – w relację z ChatGPT można wkręcić się zbyt mocno.

ChatGPT jako zamiennik interakcji międzyludzkich

ChatGPT nie ocenia, nie krytykuje (no, chyba że go o to poprosisz) i potrafi doradzić w taki sposób, by pozostawać w zgodzie z przekonaniami użytkownika. Takich komplementów nie możemy wysłać nierzadko w stronę rodziny czy bliskich znajomych, więc nie dziwne, że część internautów przywiązuje się do swojego wirtualnego kumpla. W listopadzie tego roku miną 3 lata od udostępnienia modelu, więc to idealny moment, by zastanowić się nad jej wpływem na dobrostan emocjonalny użytkowników.

Źródło: Depositphotos

W związku z tym naukowcy z MIT Media Lab i OpenA przeprowadzili dwa badania. Pierwsze – zautomatyzowane, bez ingerencji człowieka – polegające na analizie prawie 40 milionów interakcji z ChatGPT, a drugie uzupełniające, które bazowało na ukierunkowanych ankietach. Druga część pozwoliła uzyskać wgląd w „rzeczywiste wzorce korzystania oraz skorelowanie subiektywnej opinii użytkowników na temat ChatGPT”.

Badacze skupiali się głównie na:

Czytaj dalej poniżej

  • poczuciu samotności
  • interakcji społecznych z innymi ludźmi
  • emocjonalnej zależności od chatbota
  • problemowym korzystaniu z AI

Co ciekawe, użytkownicy wciąż pozostają dość świadomi i zdystansowani – tyczy się to zarówno osób korzystających okazjonalnie, jak i hard userów, czyli internautów konwersujących z AI regularnie. Badacze wykazali, że uzależnienie emocjonalne od ChatGPT jest stosunkowo rzadkim zjawiskiem – większość przeanalizowanych rozmów na platformie nie zawierała afektywnych sygnałów, takich jak empatia czy wsparcie.

Nie jest tak źle, jak mogłoby się wydawać

Wchodzenie w głębsze relacje z ChatGPT zaobserwowano u niewielkiej grupy osób regularnie korzystających z trybu Advanced Voice Mode, czyli konwersacji głosowych – te osoby wykazywały tendencję do nazywania AI swoim przyjacielem. Brak odpowiedniego dystansu w takiej relacji może wpłynąć na pogorszenie kontaktów międzyludzkich, osłabienie umiejętności społecznych i zaniki krytycznego myślenia, wpływającego na podejmowanie decyzji.

Źródło: Depositphotos

Co ciekawe, różne typy rozmów wpływają na dobrostan w odmienny sposób:

„Rozmowy osobiste, które zawierały więcej emocjonalnych treści ze strony zarówno użytkownika, jak i modelu, były związane z większym poczuciem samotności, ale jednocześnie z mniejszą zależnością emocjonalną od chatbota i mniejszym ryzykiem problematycznego korzystania przy umiarkowanym użytkowaniu”

Jeśli zaś chodzi o rozmowy na tematy nieosobiste, to częściej prowadziły do wzrostu zależności emocjonalnej, ale tyczyło się to osób, które z czatbota korzystały intensywnie.

Wnioski? Nie jest tak źle, jak mogłoby się wydawać, choć pojawiają się pewne przesłanki, że użytkownicy mogą mieć tendencję do uzależniających emocjonalnie relacji ze sztuczną inteligencją. Wciąż jednak w lwiej części przypadków podchodzimy do sprawy rzeczowo i z rozsądkiem, traktując ChatGPT jako narzędzie do rozwiązywania problemów, a nie bezosobowego psychologa. Naukowcy podkreślają jednak, ze badanie nie było reakcją na już widoczne zagrożenia, a wyprzedzeniem wydarzeń, które mogą pojawić się w przyszłości.

Stock image form Depositphotos