Žrtve same u odbrani od lažnih intimnih uradaka
Digitalno seksualno nasilje zasnovano na vještačkoj inteligenciji izazov za pravne sisteme većine država EU, pa i Crne Gore Napadi na privatni i porodični život pojedinaca potiču iz analognog svijeta, a u digitalnom te zloupotrebe dobijaju nove oblike i postaju još složenije, a žrtve su većinom žene Način na koji društvo i pravni sistem odgovaraju, test je njihove sposobnosti da prepoznaju i suzbiju savremene oblike mizoginije, poručuje Muhamed Gjokaj, ekspert za zaštitu ličnih podataka
Pravni sistem u Crnoj Gori, kao što je to slučaj u većini evropskih zemalja, još u dovoljnoj mjeri ne prepoznaje specifičnost i težinu seksualnog nasilja koje je generisano kroz platforme zasnovane na vještačkoj inteligenciji (AI), pa se zaštita u praksi često svodi na privatne tužbe, a teret dokazivanja i pokretanja postupka prebacuje na same žrtve.
Alati poput deepfake, nudify ili aplikacija za digitalno “skidanje odjeće”, koji omogućavaju kreiranje lažnih, ali uvjerljivih intimnih sadržaja bez saglasnosti osobe koja je na njima prikazana, zato bi trebalo da budu normativno i institucionalno priznati kao oblik digitalnog seksualnog nasilja, uz obavezno krivično gonjenje po službenoj dužnosti.
To je, pored ostalog, poručio Muhamed Gjokaj, bivši predsjednik Savjeta Agencije za zaštitu ličnih podataka i slobodan pristup informacijama (AZLP) i ekspert u tim oblastima.
Gjokaj ukazuje da ono što se danas događa u digitalnom, ima svoj osnov u analognom svijetu, kao i da se na nove oblike zloupotreba jednako može primijeniti član 8 Evropske konvencije o ljudskim pravima, koji se odnosi na pravo na poštovanje privatnog i porodičnog života.
U savremenom tumačenju Evropskog suda za ljudska prava (ESLJP), kaže Gjokaj, ono obuhvata znatno širi spektar zaštite, nego što je to bio slučaj u klasičnom analognom dobu.
“Nama poznati slučajevi analognih snimaka ili fotografija kao što su presude: Von Hannover protiv Njemačke, Peck protiv Ujedinjenog Kraljevstva, kojim se jasno utvrdilo da pojam ‘privatnog života’ obuhvata i pravo pojedinca da kontroliše upotrebu svoje slike, identiteta i ličnih podataka, bez obzira na to da li su ti podaci prvobitno učinjeni javno dostupnim. Upravo ta sudska praksa čini osnov za razumijevanje savremenih oblika digitalnih zloupotreba, naročito onih koje nastaju primjenom vještačke inteligencije”, kazao je on.
Tehnologija nije neutralna
U odnosu između tehnološkog razvoja i prava na privatnost, prelomni trenutak, kaže Gjokaj, predstavlja pojava deepfake tehnologije. Podsjeća da je prvi široko dokumentovan slučaj zloupotrebe te tehnologije zabilježen 2017. godine na platformi Reddit, gdje su anonimni korisnici počeli da masovno objavljuju pornografske video-zapise u kojima su lica poznatih glumica i javnih ličnosti digitalno integrisana u eksplicitne snimke.
“Iako su ti video-zapisi bili očigledno lažni, njihova uvjerljivost je bila dovoljna da proizvede stvarne posljedice po dostojanstvo, reputaciju i psihološki integritet žrtava”, podsjeća Gjokaj.
Pravni sistemi, kako je rekao, tada nisu raspolagali adekvatnim instrumentima za reakciju, jer se takvo ponašanje nije moglo jasno podvesti ni pod klasične oblike klevete, ni pod povredu autorskog prava.
U ranijim presudama, ESLJP je, dodaje sagovornik “Vijesti”, već naglasio da zaštita privatnosti ne zavisi od istinitosti informacije, već od njenog uticaja na lični integritet, što tu vrstu sadržaja, pojašnjava, jasno svrstava u domen povrede člana 8 Konvencije.
“Fenomen deepfake pornografije i algoritamskog generisanja erotskih i pornografskih sadržaja bez saglasnosti lica ne može se pravilno razumjeti isključivo kroz prizmu tehnološke inovacije ili pravne praznine. U svojoj suštini, taj oblik digitalne zloupotrebe predstavlja savremeni, tehnološki posredovan izraz mizoginije, odnosno sistemske degradacije i objektivizacije žena”.
Gjokaj dodaje da se mizoginija ovdje ne ispoljava samo kao individualni stav ili predrasuda, već kao strukturni obrazac ponašanja koji se reprodukuje kroz algoritme, platforme i institucionalne neadekvatnosti.
“Empirijski podaci i komparativna praksa jasno pokazuju da su žrtve deepfake i tzv. ‘nudify’ sadržaja u ogromnoj većini slučajeva žene. Ta disproporcija nije slučajna, niti je neutralna posljedica tehnološkog razvoja”.
Naprotiv, kako je dodao, ta disproporcija ukazuje na duboko ukorijenjen društveni obrazac u kojem se žensko tijelo, identitet i privatnost percipiraju kao legitimni objekti kontrole, manipulacije i javne izloženosti.
U tom smislu, prema njegovim riječima, deepfake tehnologija ne stvara mizoginiju, već je amplifikuje i normalizuje kroz digitalne alate, dajući joj novu, invazivniju i teže sankcionisanu formu.
Šteta se iz digitalnog preliva na realni život
Nakon slučaja na Redditu iz 2017. godine, razvoj algoritama vještačke inteligencije, dodaje Gjokaj, doveo je do demokratizacije tih zloupotreba - tehnologija je postala dostupna širokom krugu korisnika kroz tzv. “nudify”, “undress” ili “clothoff” aplikacije, koje omogućavaju generisanje lažnih nagih fotografija na osnovu običnih, često javno objavljenih slika.
Tu, pojašnjava on, dolazi do suštinski nove pravne situacije, jer fotografija koja je prvobitno objavljena u legitimne svrhe biva obrađena na način koji radikalno mijenja njenu svrhu i značenje.
“Sud u Strazburu je u više predmeta, poput Reklos i Davourlis protiv Grčke, i Sciacca protiv Italije, zauzeo stav da svaka nova obrada slike zahtijeva poseban pravni osnov, jer se radi o autonomnoj intervenciji u privatni život. Sud je u oba predmeta jasno rekao da su fotografije snažan oblik ličnih podataka i njihova neovlašćena upotreba predstavlja ozbiljno zadiranje u privatni život. Stoga generisanje takvih fotografija kroz upotrebu algoritama koje nude razne platforme vještačke inteligencije dobijaju narativ lažnog seksualizovanog sadržaja bez saglasnosti lica, što prema važećem pravnom standardu zaštite ličnih podataka predstavlja, tešku i kvalifikovanu povredu prava na privatnost”.
Gjokaj navodi i primjere iz Indije, koji, kako je rekao, dodatno razotkrivaju društvene dimenzije ovih tehnologija:
“U više navrata, fotografije žena preuzete sa društvenih mreža korišćene su za izradu deepfake pornografskih sadržaja koji su potom distribuirani putem zatvorenih digitalnih mreža. U tim situacijama, šteta nije ostajala u sferi digitalnog prostora, već se prelivala na realni život kroz stigmatizaciju, porodične konflikte, gubitak zaposlenja i nasilje”.
Istraživačka novinarka i kolumnistkinja iz Indije Rana Ayyub jedna je od prvih javno poznatih žrtava deepfake pornografije u toj zemlji. Prvi put je bila meta 2018, ali su se najteži i najrasprostranjeniji oblici zloupotrebe intenzivirali tokom 2020. godine, kada su se deepfake pornografski video-snimci sa njenim likom masovno širili putem društvenih mreža, WhatsApp i Telegram grupa.
Studentkinje iz Delhija su 2020. godine postale žrtve masovne digitalne zloupotrebe nakon što su fotografije sa njihovih javnih profila na društvenim mrežama preuzete i korišćene za kreiranje lažnih erotskih i pornografskih sadržaja putem “nudify” i deepfake alata.
“Fotografije su obrađene tako da prikazuju studentkinje u eksplicitnim scenama koje one nikada nisu snimale ili odobrile”, kaže Gjokaj.
Bez podrške, žrtve lako odustaju od prijava
Ono što navedene slučajeve čini posebno značajnim i ujedno zabrinjavajućim, dodaje Gjokaj, jeste način na koji su se posljedice digitalne zloupotrebe prelile u realni život.
“Nakon što su lažni sadržaji počeli da kruže lokalnim zajednicama, pojedine žrtve su bile izložene pritisku porodice da uklone svoje profile sa društvenih mreža, da napuste studije ili radno mjesto, pa čak i da se povuku iz javnog života kako bi se, kako je to u lokalnom diskursu opisano, spriječila dalja sramota”.
U najmanje jednom od dokumentovanih slučajeva organizacija civilnog društva, dodaje, žrtva je bila izložena fizičkom i psihološkom nasilju unutar porodice, jer je smatrana odgovornom za sadržaj koji je u potpunosti bio rezultat zloupotrebe i digitalne manipulacije.
“Institucionalna reakcija u ovom slučaju bila je spora i fragmentirana. Iako su postojale opšte krivičnopravne norme koje se odnose na povredu privatnosti i kibernetički kriminal, postupci su se u praksi pokretali isključivo po inicijativi žrtava, koje su često bile neinformisane o svojim pravima ili su, usljed društvenog pritiska, odustajale od prijavljivanja”.
Time je, dodaje Gjokaj, potvrđena teza da tehnologija sama po sebi ne proizvodi nasilje, već da patrijarhalni i mizogini društveni kontekst djeluje kao snažan multiplikator štete.
“Deepfake, nudify ili clothoff tehnologije u ovakvom okruženju postaju instrumenti društvene kontrole nad ženama, sredstvo ucjene i disciplinovanja, ali i mehanizam isključivanja iz javnog i profesionalnog života”.
Upravo zbog toga se, dodaje Gjokaj, u savremenoj pravnoj teoriji i praksi takvi slučajevi sve češće posmatraju, ne samo kao povreda prava na privatnost i zaštitu ličnih podataka, već kao oblik rodno zasnovanog nasilja, duboko ukorijenjenog u mizogenim društvenim strukturama.
Pravni odgovor države na primjeru Španije
Gjokaj pojašnjava da je na nivou Evropske unije, problem deepfake i AI generisanog seksualnog nasilja prepoznat “sa zakašnjenjem”, ali i da je posljednjih godina došlo do normativnog pomaka, kako kroz Digital Services Act, AI Act, GDPR i LED direktivu…
I novi Zakon o vještačkoj inteligenciji AI Act, kako je rekao, uvodi koncept visokorizičnih i zabranjenih AI Sistema, što je, mišljenja je, za početak dobra osnova za zaštitu od takvih pojava.
Problem je, međutim, jer su tek pojedine države članice te standarde pretočile u efektivne krivičnopravne mehanizme. U Španiji deepfake pornografija eksplicitno je kvalifikovana kao oblik seksualnog nasilja i ozbiljne povrede prava na privatnost i krivično se goni po službenoj dužnosti. Time se, kaže Gjokaj, žrtva rasterećujuće tereta inicijative.
Tu reakciju države, podsjeća on, podstakao je slučaj Almendraljehu iz 2023. godine, kada su AI alati za generisanje slika zloupotrijebljeni da se bez pristanka kreirali eksplicitne slike najmanje 20 adolescentkinja, tako što su njihove slike sa društvenih mreža postavljene na tijela generisana AI‑om koristeći aplikaciju poput ClothOff.
“Ti lažni ‘nude’ sadržaji su potom dijeljeni onlajn, uključujući i pornografske platforme, bez saglasnosti žrtava, što je izazvalo veliki društveni i pravnu reakciju u Španiji”.
Taj primjer, dodaje Gjokaj, pokazuje kako institucionalno prepoznavanje mizoginije mijenja pravni odgovor države.
“Španski zakonodavac je, uvođenjem krivičnih djela koja eksplicitno obuhvataju deepfake pornografiju i neovlašćeno seksualizovanje lika i tijela, implicitno priznao da se radi o rodno zasnovanom nasilju. Time je napušten neutralni diskurs tzv. ‘tehničke zloupotrebe’ i prihvaćen pristup koji polazi od realnih društvenih odnosa moći. Takav pristup je u skladu sa standardima ESLJP, koji u predmetima koji se tiču rodno zasnovanog nasilja insistira na tome da formalna jednakost pred zakonom nije dovoljna ukoliko se zanemaruje stvarni položaj ranjivih grupa”.
Crna Gora bez jasnog odgovora
U Crnoj Gori, kaže Gjokaj, izražen je raskorak između normativnih obaveza i institucionalne prakse.
“Iako Ustav Crne Gore garantuje zaštitu ličnih podataka, a Krivični zakonik poznaje krivična djela zloupotrebe podataka o ličnosti i povrede privatnosti, izostanak gonjenja po službenoj dužnosti u praksi dovodi do situacije u kojoj masovne i očigledne povrede ostaju nekažnjene”.
Prebacivanje cjelokupnog tereta zaštite na žrtvu, posebno u slučajevima digitalnog seksualnog nasilja, kako je rekao, nije u skladu sa pozitivnim obavezama države.
“U tom smislu, nedostatak jasnog zakonodavnog i institucionalnog odgovora u Crnoj Gori ne predstavlja samo pravni, već i društveni problem. Neimenovanje mizoginije kao jednog od ključnih uzroka i konteksta deepfake i AI-generisanog seksualnog nasilja dovodi do depolitizacije i banalizacije problema i svođenje ovog problema samo na povredu prava na privatnost”.
Kada se takvi slučajevi tretiraju isključivo kao individualni sporovi ili privatne tužbe, dodaje Gjokaj, zanemaruje se činjenica da je riječ o obrascu ponašanja koji ima masovni karakter i koji proizvodi tzv. “efekat zastrašivanja”, naročito prema ženama koje su javno aktivne ili profesionalno izložene.
“Zato je od suštinske važnosti da budući zakonodavni okvir Crne Gore, koje se odnosi na definisanje krivičnih djela u oblasti zaštite podataka o ličnosti, krivičnog prava i regulacije vještačke inteligencije i digitalnih servisa, eksplicitno prepozna rodnu dimenziju ovih zloupotreba”.
Dodaje i da uloga AZLP “ostaje ograničena na upravni nadzor, bez mogućnosti da odgovori na kompleksnost i hitnost ovih slučajeva”.
“Bez jasnog zakonodavnog prepoznavanja deepfake i AI-generisanih seksualizovanih sadržaja kao posebne kategorije teških povreda privatnosti i dostojanstva, pravni sistem ostaje reaktivan i bez adekvatne pravne zaštite”, rekao je Gjokaj i dodao da je regulacija vještačke inteligencije u oblasti zaštite privatnosti i ljudskog dostojanstva, ne samo tehničko, već suštinski ustavno i konvencijsko pitanje.
Izostanak reakcije je prećutno odobravanje
“Ukoliko Crna Gora želi da ispuni standarde iz člana 8 Evropske konvencije i da se suštinski, a ne deklarativno, približi EU, neophodno je normativno i institucionalno priznati deepfake i srodne prakse kao što su nudify, clothoff… kao oblik digitalnog seksualnog nasilja, uz obavezno krivično gonjenje po službenoj dužnosti. Prvenstveno mislim za situacije propisanim u Krivičnom zakoniku u članu 183 kojim se uređuje da za odredbe iz člana 174 stav 1, 175 stav 1, 176 st 1 i 2 ovog zakonika preduzima se po privatnoj tužbi”, poručuje Gjokaj.
Takođe, to pitanje, kako je kazao, treba da se uredi na način da se za ta djela pokreću službene radnje i gonjenje počinilaca bude po službenoj dužnosti, kada ima elemenata mizoginije ili drugog seksualnog zlostavljanja bilo kojeg lica, zloupotrebom slika i drugih vrsta snimaka bez saglasnosti lica.
“Način na koji društvo i pravni sistem odgovaraju na deepfake i AI generisano seksualno nasilje predstavlja test njihove sposobnosti da prepoznaju i suzbiju savremene oblike mizoginije. Izostanak reakcije nije neutralan čin, on proizvodi prećutno odobravanje i omogućava dalju normalizaciju nasilja”, kaže Gjokaj i dodaje da je upravo zato sveobuhvatno i rodno osjetljivo zakonodavno djelovanje, ne samo pravna nužnost, već i civilizacijska obaveza”.
“U suprotnom, rizik normalizacije ovih zloupotreba ostaje visok, a povjerenje građana u sposobnost države da zaštiti njihovo osnovno ljudsko dostojanstvo nastavlja da se erodira, čime se direktno podriva povjerenje u pravni poredak i samu ideju vladavine prava”.
( Damira Kalač )