Istraživači bezbjednosti su otkrili ozbiljan propust u Chat GPT alatu koji omogućava krađu podataka iz Gmail-a. Brojne korisnike zabrinula je činjenica da vještačka inteligencija može zloupotrijebiti njihove mail podatke. Vjerovatno, kaže Pavićević, da je propust bio na strani Open AI i stvar je, smatra, zakrpljena prije nego što je objavljena.
“Naši Gmail podaci su sigurni trenutno, ali ovo je veliki poziv na to da razmišljamo šta dijelimo sa agentima vještačke inteligencije. Da bi bili agenti vještačke inteligencije bili pouzdaniji i da bi manje halucinirali, da bi bili relevantniji za naše stvari, potrebno je filtrirati podatke koji se dijele sa njima. Treba razmišljati kao što razmišljamo koje podatke dijelimo sa nekom osobom, treba razmišljati o tome i da agenti vještačke inteligencije su jednako labilni, odnosno potencijalna meta za ovu vrstu napada i ovo sigurno neće biti posljednji napad”, rekao je Pavićević.Nedostatak edukacije, kaže Pavićević, ali i pritisak da se postigne što veća produktivnost dovode do neodgovornog korištenja vještačke inteligencije.
“Lakše nam je da vjerujemo, nego da provjeravamo te stvari. Vjerovatno je taj dio Open AI i Gmail zakrpljen za sva vremena, ali vidjećemo ovu vrstu napada koja će da targetira eksfiltraciju podataka drugih korisnika u ovakvim sistemima, vidjećemo je prije ili kasnije u takozvanoj divljini koja ne dolazi od strane ovih agencija, nego od strane malicioznih hakera.
Preporučeno
Druga stvar je da vještačka inteligencija povećava i produktivnost hakera, jer postoje modeli koji će da pomognu hakeru u daljem hakovanju i ko se nije bavio sajber bezbjednošću do sada u svome proizvodu, ne samo u pogledu vještačke inteligencije, nego generalno sajber bezbjednošću mislim da će ti rizici da budu veći, jer će sve lakše i jeftinije biti da se sajber napadi izvršavaju”, rekao je Pavićević.