Kada je kompanija Anthropic nedavno odustala od kontroverznog ugovora sa Pentagonom vrijednog 200 miliona dolara, mnogi su mislili da će etički standardi prevladati nad vojnim budžetima. Ipak, prazninu je ekspresno popunio OpenAI.


OPENAI IZMIJENIO USLOVE KORIŠĆENJA
Podsjećamo, OpenAI je prošle godine tiho izmijenio svoje uslove korišćenja, uklonivši eksplicitnu zabranu upotrebe njihove tehnologije u vojne i borbene svrhe.

Danas, njihovi modeli usko sarađuju sa kompanijama poput Andurila i direktno sa Pentagonom na projektima nacionalne bezbjednosti.
,,ISPOD HAUBE”
Problem, međutim, leži u onome što se dešava ,,ispod haube”.
Sara Šoker, bivša šefica za geopolitiku u OpenAI-ju, ističe da netransparentnost algoritama (tzv. black box efekat) u kombinaciji sa vojnom tajnošću stvara opasan presedan.
,,Najveći gubitnici u svemu ovome su obični ljudi i civili u zonama sukoba”, upozorava Šoker.
ŠTA AI RADI ZAHVALJUJUĆI UGOVORU
Ono što sve najviše zabrinjava jeste primjena ovih modela.
AI modeli sada imaju sposobnost da u realnom vremenu obrađuju milijarde podataka o građanima koje vlade kupuju od privatnih brokera podataka.
Zahvaljujući novim ugovorima, AI može da vrši:
Masovno profilisanje: Kategorizacija građana na osnovu online navika.
Prediktivni nadzor: Analiza ponašanja radi „predviđanja“ potencijalnih prijetnji.
Analizu obavještajnih podataka: Sortiranje ogromnih količina informacija koje bi ljudima bili potrebni mjeseci da pročitaju.

OPENAI: ,,ODBRANA DEMOKRATSKIH VRIJEDNOSTI”
Dok se OpenAI brani tvrdnjama da njihova tehnologija pomaže u ,,odbrani demokratskih vrijednosti”, kritičari podsjećaju da AI modeli i dalje pate od ,,halucinacija” i pristrasnosti.
KRITIČARI: GREŠKA U KODU MOŽE ZNAČITI GUBITAK LJUDSKIH ŽIVOTA
Preporučeno
Kada se takva tehnologija primijeni u vojnom kontekstu ili u sistemima nadzora, greška u kodu može da znači gubitak ljudskih života ili neopravdano kršenje privatnosti.

















