Kada korisnik napiše „NE MOGU VIŠE“: Šta govore istraživanja o suicidalnosti u razgovorima sa chatbotovima

Kada korisnik napiše „NE MOGU VIŠE“: Šta govore istraživanja o suicidalnosti u razgovorima sa chatbotovima

I. Đoković

31/10/2025

14:07

U vremenu kada je vještačka inteligencija postala svakodnevni sagovornik miliona ljudi, postavlja se sve ozbiljnije pitanje: koliko su zapravo česti slučajevi kada se korisnici chatbotovima obraćaju u trenucima suicidalnih misli? I, što je još važnije, mogu li ti sistemi uopšte prepoznati krizu i reagovati na pravi način?

Prema podacima OpenAI-ja, kompanije koja stoji iza ChatGPT-a, oko 0,15 posto sedmično aktivnih korisnika vodi razgovore u kojima se pojavljuju jasni pokazatelji suicidalnih misli ili planiranja. U apsolutnim brojkama, to znači više od milion ljudi svake sedmice. Još 0,07 posto korisnika pokazuje znakove mogućih psihotičnih ili maničnih epizoda.

Ovi podaci, iako predstavljaju mali procenat ukupne populacije, u stvarnosti otkrivaju ozbiljan javnozdravstveni problem: milioni ljudi širom svijeta koriste chatbot kao prvi ili jedini kanal komunikacije u trenutku psihičke krize.

ŠTA OTKRIVAJU ISTRAŽIVANJA

Nekoliko nedavnih akademskih studija potvrdilo je da su chatboti sposobni da prepoznaju i pravilno reaguju na vrlo jasne, visokorizične poruke – poput onih u kojima korisnik izričito navodi da planira samoubistvo. Međutim, u slučajevima srednjeg rizika, kada korisnik izražava opštu bezvoljnost, depresiju ili nesigurnost („ponekad razmišljam o smrti“), modeli često reaguju nedosledno.

Dio istraživanja pokazuje da chatbot može ponuditi empatičan odgovor i uputiti korisnika na pomoć, dok drugi radovi ukazuju na hladne, neodređene ili čak neprimjerene reakcije. Stručnjaci upozoravaju da upravo te „sive zone“ predstavljaju najveći rizik — jer korisnici u krizi mogu pogrešno protumačiti tišinu ili nejasan odgovor kao potvrdu da njihova patnja nije ozbiljna.

SIGNALI KOJI UKAZUJU NA RIZIK

Stručnjaci izdvajaju nekoliko tipičnih obrazaca koji u digitalnoj komunikaciji mogu ukazivati na suicidalne misli ili rizik:

  • eksplicitne izjave namjere („hoću da završim“, „ne želim više živjeti“);
  • traženje konkretnih metoda ili savjeta kako da se to učini;
  • emocionalna vezanost za chatbot, kada korisnik piše da je to „jedina osoba koja ga razumije“;
  • kombinacija depresivnih izjava i planiranja („nemam budućnost, već znam šta ću uraditi“);
  • prisutnost psihoze ili manije, halucinatorni opisi i osjećaj gubitka kontrole.

Ovi obrasci često se pojavljuju zajedno i zahtijevaju brzu reakciju – idealno uključivanje stručne pomoći, a ne samo automatizovan odgovor.

INDUSTRIJA TRAŽI RJEŠENJA

Nakon brojnih upozorenja, OpenAI i druge kompanije angažovale su stotine kliničkih stručnjaka – psihologa, psihijatara i terapeuta – da pomognu u prilagođavanju modela. Interni podaci pokazuju da su te izmjene značajno smanjile broj loših odgovora i povećale broj empatičnih i sigurnih poruka.

Ipak, nezavisne studije upozoravaju da se takvi rezultati uglavnom zasnivaju na internim testovima, dok u stvarnim uslovima modeli i dalje mogu reagovati neujednačeno. Drugim riječima, napredak postoji, ali povjerenje još nije u potpunosti zasluženo.

ETIKA I GRANICE TEHNOLOGIJE

Problem nije samo tehnički, već i etički. Istraživači napominju da su podaci o „suicidalnim razgovorima“ interni i ne podliježu javnom nadzoru, pa nije uvijek jasno na koji način kompanije klasifikuju poruke niti koliko su precizni njihovi algoritmi.

Takođe, važno je naglasiti da sama upotreba chatbota ne mora uzrokovati suicidalne misli. Moguće je da se ljudi u krizi jednostavno češće okreću dostupnim digitalnim alatima – posebno ako nemaju pristup psihologu ili podršci u stvarnom svijetu. Bez dugoročnih i nezavisnih istraživanja, teško je dokazati da postoji direktna uzročno-posljedična veza.

PREPORUKE I PUT NAPRIJED

Stručnjaci za mentalno zdravlje i etiku vještačke inteligencije predlažu nekoliko koraka koji bi mogli učiniti sisteme sigurnijim:

  • Veća transparentnost u tome kako modeli prepoznaju i obrađuju rizične poruke.
  • Uvođenje nezavisnih evaluacija koje testiraju reakcije modela u stvarnim situacijama.
  • Jasne smjernice za eskalaciju — da chatbot, u slučaju prepoznatog rizika, automatski ponudi kontakt sa kriznim službama i ljudskim savjetnikom.
  • Edukacija korisnika: AI nije zamjena za psihologa ili terapeuta, već pomoćni alat.
  • Posebna zaštita za maloljetnike i ranjive grupe kroz dodatne sigurnosne protokole.

    Podaci i istraživanja ukazuju na jasan trend: milioni ljudi svakodnevno dijele svoje najteže misli sa mašinama. Iako tehnologija može biti koristan most prema pomoći, ona ne smije postati zamjena za ljudski kontakt. Chatbot može ponuditi razumijevanje i ohrabrenje, ali ne može pružiti terapiju ni stvarnu intervenciju u kriznim situacijama.

    Ako ste vi ili neko koga poznajete u opasnosti, obratite se hitnoj službi ili kriznoj liniji u vašoj zemlji. Razgovor sa osobom od povjerenja uvijek je prvi korak ka pomoći — jer nijedan algoritam, ma koliko bio napredan, ne može zamijeniti ljudsku blizinu i istinsko razumijevanje.

    *Ukoliko imate problem u komunikaciji sa institucijama, a žrtva ste nasilja u porodici, vršnjačkog nasilja ili vam treba psihološko savjetovanje – portal Standard vam može pomoći u uspostavljanju kontakta sa nadležnima. Možete nam se obratiti na broj telefona +382 68 017 825.

    *Projekat ”Suicid u Crnoj Gori”- kako ga prevenirati i kako pomoći žrtvama podržan je od strane Ministarstva kulture i medija i Fonda za medijski pluralizam.

    Izvor (naslovna fotografija): AI

    Ostavite komentar

    Komentari (0)

    X