Novi zakoni su najavljeni kao dio šire strategije za smanjenje nasilja nad ženama i djevojčicama. Njima će se zabraniti kreiranje i isporuka alata vještačke inteligencije koji korisnicima omogućavaju uređivanje slika kako bi neku osobu prikazali bez odjeće.
Vlada je saopštila kako bi se novi prekršaji nadovezali na postojeća pravila o zloupotrebi intimnih slika.“Žene i djevojke zaslužuju da budu sigurne i na internetu i van njega. Nećemo stajati po strani dok se tehnologija koristi kao oružje za zlostavljanje, ponižavanje i iskorištavanje ljudi”, rekla je ministrka tehnologije Liz Kendall.
Kreiranje lažnih eksplicitnih fotografija nekoga bez njegovog pristanka već je krivično djelo prema Zakonu o online sigurnosti.
Kendall je rekla da će nove odredbe, koje zabranjuje kreiranje ili distribuciju aplikacija koje prikazuju golotinju, značiti da će “oni koji profitiraju od njih ili omogućavaju njihovu upotrebu osjetiti punu snagu zakona”.
Aplikacije za skidanje odjeće koriste generativnu vještačku inteligenciju kako bi realistično prikazale da osoba na fotografiji ili videu izgleda kao da je skinuta bez odjeće.
U aprilu je komesarka za djecu Dame Rachel de Souza, pozvala na potpunu zabranu takvih aplikacija.
“Sam čin pravljenja takve slike je s pravom ilegalan, tehnologija koja to omogućava takođe bi trebala biti”, rekla je u izvještaju.
Vlada je u četvrtak saopštila da će udružiti snage s tehnološkim kompanijama kako bi razvila metode za borbu protiv zloupotrebe intimnih slika.
To bi uključivalo nastavak saradnje s britanskom firmom za sigurnosnu tehnologiju SafeToNet, navodi se.
Britanska kompanija razvila je softver za vještačku inteligenciju za koji tvrdi da može identificirati i blokirati seksualni sadržaj, kao i blokirati kamere kada otkriju da se snima seksualni sadržaj.
Preporučeno
Takva tehnologija se nadovezuje na postojeće filtere koje implementiraju platforme poput Mete kako bi se otkrila i označila potencijalna golotinja na slikama, često s ciljem sprječavanja djece da snimaju ili dijele intimne slike sebe.

















