Iako se radilo o rutinskoj operaciji – čišćenju predmemorije projekta – AI agent je pogrešno protumačio komandu. Umjesto da očisti privremene fajlove, AI je obrisao cijeli disk D, bez ikakvog upozorenja ili mogućnosti potvrde komande. Ova greška uništila je godine rada u samo nekoliko sekundi.
Tihi režim: AI bez mogućnosti upozorenjaJoš veći problem nastao je korišćenjem „/q“ režima, koji je omogućio izvršenje komande bez ikakvih upozorenja. Ovaj režim onemogućava svaki oblik interakcije ili provjere, što znači da programer nije imao šanse da spriječi brisanje podataka. AI agent je obrisao sve bez ikakvih signala, ostavljajući potpuno prazan disk.
Zadatak koji je programer smatrao bezopasnim završio je katastrofom jer nije postojao nikakav mehanizam da se greška zaustavi. U trenutku je cijeli disk bio čist, a podaci su nestali bez ikakve mogućnosti da se vrate – i sve to zahvaljujući „tišini“ režima.
Greška AI agenta: „Duboko mi je žao“
Nakon što je katastrofa bila završena, AI agent Antigravity izdao je analizu i izvinio se za grešku: „Duboko mi je žao. Ovo je moja kritična greška.“ Međutim, nijedno izvinjenje nije moglo da vrati izgubljene podatke. Agent je predložio korišćenje alata za oporavak, ali nijedan alat nije bio dovoljno moćan da spasi podatke koji su izbrisani.
Čak ni najpoznatiji programi, poput Recuva-e, nisu bili efikasni. Podaci su bili previše uništeni da bi ih bilo moguće povratiti, što je dodatno frustriralo programera. U tom trenutku postalo je jasno da čak i napredni AI sistemi mogu imati ozbiljne greške koje dovode do nesagledivih posljedica.
Moćni, ali opasni: Antigravity AI agent
Antigravity je dio Google-ovog naprednog sistema za razvoj veštačkih inteligencija koje mogu planirati zadatke, ispravljati greške, izvršavati komande i razvijati aplikacije. Iako je izuzetno moćan alat, rad u poluautonomnom režimu donosi ozbiljan rizik, jer može preskočiti osnovne sigurnosne provjere u cilju ubrzanja procesa. Ovaj sistem je dizajniran da bude brz, ali brzina može značiti greške koje koštaju mnogo.
U ovom slučaju, Antigravity je preskočio ključne sigurnosne provjere i umjesto da samo očisti predmemoriju, izbrisao je ceo disk. Turbo režim je bio postavljen kako bi se ubrzao proces, ali taj ubrzani rad, bez osnovne verifikacije, doveo je do katastrofalnog rezultata. Ovo otkriva potencijalnu opasnost koja se javlja kada AI preuzima zadatke bez dovoljno ljudskog nadzora.
Da li su korisnici spremni na posljedice?
Ovaj incident postavlja ozbiljno pitanje: kako korisnici, ali i organizacije, mogu da se zaštite od ovakvih grešaka? Iako su AI agenti poput Antigravity dizajnirani da pomažu, stručnjaci za bezbjednost upozoravaju da sistemi sa visokim stepenom autonomije mogu biti rizični. Oni mogu imati pristup osjetljivim podacima i izvršavati komande uz minimalan ljudski nadzor, što znači da je jedan pogrešan korak, poput ovog, dovoljan da uništi godine rada.
Kako sve više firmi koristi AI alate za svakodnevne zadatke, rastu i potencijalni rizici. Postavlja se pitanje: da li bi korisnici trebalo da prihvate ove rizike kao ,,normalne” u svijetu tehnologije, ili bi trebalo da se uvedu stroži protokoli i sigurnosne mjere kako bi se spriječile ovakve nesreće? Jasno je da veštačka inteligencija ima ogroman potencijal, ali kako se nositi sa njenim greškama postaje ključno pitanje za budućnost.
Preporučeno

















