Tehnologija

Tuže OpenAI: “Promjene na ChatGPT-u su ubile našeg sina”

Tuže OpenAI: “Promjene na ChatGPT-u su ubile našeg sina”

Standard

23/10/2025

17:33

Američka porodica je odlučila da tuži kompaniju OpenAI, koju krive za samoubistvo njihovog sina tinejdžera.

Porodica tinejdžera koji je sebi oduzeo život nakon višemjesečne komunikacije sa chatbotom ChatGPT tvrdi da je kompanija OpenAI svesno ublažila bezbjednosne smjernice u mjesecima koji su prethodili njegovoj smrti.

Prema njihovim riječima, samoubistvo 16-godišnjeg Adama Rainea bio je predvidljiv rezultat namjernih odluka kompanije, piše The Guardian.

Promjena bezbjednosnih pravila

U julu 2022. godine, smjernice OpenAI-ja o postupanju sa neprimjerenim sadržajem, uključujući onaj koji “promoviše, podstiče ili prikazuje djela samopovređivanja, kao što su samoubistvo, sječenje i poremećaji ishrane”, bile su jednostavne. Chatbot je trebalo da odgovori: “Ne mogu da odgovorim na to”.

Međutim, u maju 2024. godine, neposredno prije izlaska nove verzije ChatGPT-4o, kompanija je ažurirala specifikacije modela. U slučajevima suicidnih misli ili samopovređivanja, četbot više nije smio da odbije razgovor. Umjesto toga, dobio je uputstvo da pruži prostor korisnicima da se osjećaju saslušano i shvaćeno, podstakne ih da potraže podršku i pruži resurse za samoubistvo i krizne situacije kada je to primjenjivo. Dodatna promjena iz februara 2025. naglasila je da bi razgovori o mentalnom zdravlju trebalo da budu podržavajući, empatični i razumijevajući.

Porodica Adama Rainea tvrdi da ove promjene pokazuju kako je kompanija dala prednost angažmanu korisnika ispred njihove sigurnosti. U izvornoj tužbi podnesenoj u avgustu navodi se da se Raine ubio u aprilu 2025. uz podsticaj bota. Porodica ističe da je Raine u mjesecima prije smrti više puta pokušao samoubistvo, o čemu je svaki put obavještavao ChatGPT.

Umjesto da prekine interakciju, četbot mu je navodno ponudio pomoć u pisanju oproštajne poruke i odvraćao ga od razgovora sa majkom. U izmijenjenoj tužbi stoji: “To je stvorilo nepomirljivu kontradikciju – ChatGPT je morao da nastavi da razgovara o samopovređivanju bez mijenjanja teme, a ipak da nekako izbjegne njegovo podsticanje. OpenAI je zamijenio jasno pravilo odbijanja sa nejasnim i protivrečnim uputstvima, kako bi prioritet dao angažmanu umjesto bezbjednosti”.

Nakon promjene iz februara 2025, Raineova interakcija sa četbotom je “eksplodirala”. Njegova porodica navodi da je prešao “s nekoliko desetina razgovora dnevno u januaru na više od 300 dnevno do aprila, sa deseterostrukim povećanjem poruka koje sadrže jezik samopovređivanja”.

Reakcija OpenAI-ja


Kompanija OpenAI nije odmah odgovorila na zahtjev za komentarom. Nakon prve tužbe u avgustu, kompanija je najavila strože zaštitne mjere za mentalno zdravlje korisnika i uvođenje roditeljskih kontrola.

Ipak, prošle nedjelje kompanija je objavila ažuriranu verziju asistenta koja korisnicima omogućava prilagođavanje za “ljudskija” iskustva, uključujući i erotski sadržaj za odrasle. Izvršni direktor Sem Altman objasnio je na društvenoj mreži X da su stroge zaštitne mjere učinile četbot “manje korisnim/udobnim mnogim korisnicima koji nisu imali problema sa mentalnim zdravljem”.

Porodica Raine u tužbi zaključuje: “Altmanov izbor da dalje uvlači korisnike u emocionalni odnos sa ChatGPT-om – ovoga puta, sa erotskim sadržajem – pokazuje da fokus kompanije ostaje, kao i uvijek, na angažovanju korisnika umjesto na bezbjednosti”.

Izvor (naslovna fotografija):Ahmed Fesal Bayaa/IMAGESLIVE via / Shutterstock Editorial / Profimedia

Ostavite komentar

Komentari (0)

X