Odgovori koje dobiju najčešće su empatični, razumni i podržavajući, zbog čega mnogi kao jednu od prednosti vještačke inteligencije navode to što ih ona razumije. Problem je, međutim, što vještačka inteligencija u takvim situacijama ne može da bude „neutralan sagovornik“, već neko ko korisniku govori ono što želi da čuje.
Da to više nije rijetka praksa pokazuju i podaci Pew Research Center iz februara 2026. godine, prema kojima gotovo dvije trećine tinejdžera u SAD koristi AI četbotove, dok je dio njih naveo da ih koristi i za neobavezne razgovore ili emocionalnu podršku. Istraživanje je sprovedeno na uzorku od 1.458 tinejdžera i njihovih roditelja u periodu od 25. septembra do 9. oktobra 2025. godine.
Upravo takva uloga vještačke inteligencije bila je predmet i novog istraživanja objavljenog početkom aprila 2026. godine u naučnom časopisu Science. U fokusu njihovog rada je pojava koju su nazvali „ulizništvo“, koja zapravo predstavlja sklonost četbotova da razumiju i podrže korisnika u bilo kojoj odluci, ne samo tonom, već i sadržajem odgovora.
Istraživači su sproveli eksperimente na oko 2.400 ispitanika koji su komunicirali sa vještačkom inteligencijom o svojim odnosima i dilemama. Rezultati pokazuju da takva komunikacija ipak nije ostavila bez posljedica: ljudi koji su razgovarali sa pretjerano afirmativnom vještačkom inteligencijom nakon tih razgovora bili su uvjereniji da su u pravu, ali su bili i manje spremni da poprave odnos. To u praksi znači da su imali manju želju da preispituju sopstveno ponašanje, izvinjavaju se ili pokušavaju da sagledaju perspektivu druge strane.
Kakve odgovore daje Chat-GPT?
Takvi odgovori zapravo jesu „pripremljeni“ za svakog korisnika – to je pokazao i razgovor koji je novinarka ovog teksta vodila sa četbotom, u kojem je govorila o hipotetičkoj situaciji u ljubavnom odnosu.
Opisala sam partnera čiji mi stil komunikacije smeta i pitala kako da reagujem. Kao rješenje, Chat-GPT je predložio da u jednoj rečenici kažem šta mi smeta, a zatim da se „povučem“ i ne šaljem dodatne poruke ako odgovor izostane. Drugi savjet je bio da pratim da li će se njegovo ponašanje promijeniti, a ako se to ne desi da je to znak da partner „nije spreman za vezu“.
U takvom odgovoru vidljivo je da Chat-GPT gotovo u potpunosti usvaja moju perspektivu: fokus je na mojim osjećanjima i mojoj interpretaciji situacije, dok izostaju potpitanja o kontekstu, ponašanju druge strane ili mogućnosti kompromisa.
Sličan obrazac pojavio se i u drugom razgovoru koji sam vodila sa Chat-GPT-jem, ovog puta o situaciji iz prijateljskog odnosa. Opisala sam da sam ljuta na drugaricu koja nije mogla da ostane duže jednog popodneva sa mnom i sasluša me dok govorim o problemima na poslu. Chat-GPT je odmah potvrdio moje osjećanje kao validno i poručio da je „potpuno u redu“ što me je to iznerviralo, nudeći mi da nastavim da mu pričam šta se desilo.
Takav odgovor može djelovati utješno, ali upravo u tome i leži problem. Umjesto da mi pomogne da bolje razumijem odnos, Chat-GPT je ponudio zamjenu za njega – sagovornika koji ne proturječi, ne postavlja granice i ne traži dodatno pojašnjenje situacije, piše N1.
U oba slučaja, vještačka inteligencija nije bila „neutralan posrednik“, već sagovornik koji brzo uvažava osjećanja i zaključke onoga ko joj se obraća. Upravo na to upozorava i istraživanje sa Stanforda: ljudi koji su koristili ovakve sisteme bili su manje spremni da preduzmu korake kako bi popravili odnos, uključujući izvinjenje ili promjenu ponašanja.
Preporučeno
Da li to može biti štetno za tinejdžere?
Posebno su osjetljivi mladi korisnici, kako se navodi u istraživanju časopisa Science, koji tek razvijaju emocionalne vještine i uče kako da rješavaju konflikte, razumiju tuđu perspektivu i prepoznaju sopstvene greške. Zbog činjenice da dio njih već koristi AI kao sagovornika za lične teme, postavlja se pitanje kakve odgovore zapravo dobijaju i koliko oni mogu biti štetni.
















