Tehnologija

Vještačka inteligencija može da bude okidač za samoubistvo?

Vještačka inteligencija može da bude okidač za samoubistvo?

Standard

29/08/2025

16:00

Nedavni slučaj samoubistva tinejdžera ponovo otvara pitanje pravnog regulisanja upotrebe ali i zloupotrebe AI softvera na svjetskom nivou.

Nakon što je šesnaestogodišnji tinejdžer Adam Rejn iz Kalifornije počinio samoubistvo, njegovi roditelji su okrivili ChatGPT da je odgovoran za smrt njihovog sina.

Kakav će biti ishod ove tužbe? Može li vještačka inteligencija zaista da nagovori čovjeka da digne ruku na sebe, али i na druge? Na ova pitanja odgovaraju gosti Jutra na Prva TV – advokat Vojin Šaljić i IT stručnjak Vojislav Rodić.

Roditelji nastradalog tinejdžera su nakon samoubistva svog sina podnijeli tužbu protiv kompanije Open AI koja razvija softver Chat GPT, da je odgovorna za smrt njihovog sina. Da li je to osnovana tužba i kakav bi mogao da bude ishod?

“Ovaj slučaj će evidentno biti presedan u pravnom smislu. Kao i u smislu definisanja prava u oblasti informacionih tehnologija koje se odnose na vještačku inteligenciju. Slučaj može da se okonča na dva načina: Ili će biti osuđujuća presuda, tako da OpenAI isplati određeni vid odštete i proglasi se odgovornim kao kompanija koja razvija aplikaciju vještačke inteligencije; Ili će biti oslobođeni odgovornosti”, kaže advokat Vojin Šaljić.

Kompanija OpenAI izjavila je nakon tužbe da unapređuje zaštitne mjere u svom softveru za prevenciju kriznih situacija.

Ako bi se zaista dokazala odgovornost kompanije koja razvija Chat GPT za ovaj čin? Da li bi bili odgovorni rukovodioci kompanije, ili programeri koji su razvijali ovaj softver? Ili svi ponaosob?

“Kao i svaki drugi softver, vještačka inteligencija zapravo nije eksterno biće koje egzistira u svijetu i koje mi možemo da identifikujemo. To je softver koji se nalazi na određenim platformama i ima veoma jake kapacitete da pretražuje, prikuplja, skladišti i obrađuje informacije, što daje inteligenciju tom softveru. Odgovornost, u slučaju da se dokaže krivica aplikacije i da bezbjednosni standardi aplikacije nijesu bili zadovoljavajući, je na kompaniji (OpenAI) i samim tim odgovorno lice u kompaniji snosi posljedice”, kaže Šaljić.

“Sada imamo Uredbu o vještačkoj inteligenciji u Evropskoj uniji. Jer uobičajeno, pravo kasni za onim što nastaje i trudi se da reguliše nove stvari koje se pojavljuju. U evropskoj Uredbi su prvo definisane kategorije koje su izrazito rizične, poput primjene vještačke inteligencije u zdravstvu, saobraćaju i svuda đe može da dođe do negativnih posljedica”, kaže IT stručnjak Vojislav Rodić.

Izvor: B92
Izvor (naslovna fotografija):sdecoret / Shutterstock.com

Ostavite komentar

Komentari (0)

X