Jasno prepoznavanje i definisanje zloupotrebe vještačke inteligencije kada se manifestuje kroz prezentaciju digitalne manipulacije, posebno kada je cilj obmana javnosti, izazivanje panike ili nanošenje reputacione štete, prioritetna je potreba crnogorskog društva, ocijenili su iz Strategije za evropsku i građansku Crnu Goru (STEGA).
Oni su kazali da ukoliko ne želi da joj se ponovi današnji scenario "jes/nije original, jes Miloš/nije Miloš Medenica“, odgovorna vlast mora prije svega reagovati proaktivno u nekoliko paralelnih pravaca.
"Digitalna transformacija crnogorskog društva u XXI vijeku i razvoj vještačke inteligencije otvorilo je pitanje pravne i društvene odgovornosti u digitalnom prostoru, naročito kada je riječ o generisanju audio i video sadržaja koji mogu imitirati stvarne osobe i događaje. U slučaju snimaka koji se ovih dana dovode u vezu sa odbjeglim osuđenikom Milošem Medenicom, reakcija u crnogorskom javnom diskursu pokazuje koliko snažan može biti efekat ovakvih sadržaja koji se pojavljuju u medijima i na društvenim mrežama kada se o njima ne može dobiti autentična potvrda ili dati populaciji objektivan odgovor po pitanju njihove istinitosti", navodi se u saopštenju STEGA-e.
Kao prvi pravac djelovanja u predupređivanju naastanka štete, STEGA prepoznaje jeste izmjenu i dopunu zakonskog okvira kroz učinkovitiju i ažurniju implementaciju evropskih zakonodavnih rješenja, naročito u svjetlu već vjerovatnog skorog pristupanja Evropskoj uniji.
"Implementacija bi se prije svega sprovela kroz prilagođavanje krivičnog zakonodavstva. Dopune odredbi ili definisanje posebnog poglavlja koje bi prepoznalo društvenu štetnost i rangiralo kaznenu odgovornost pojedinca, privrednog ili političkog subjekta prvi su korak koji mora pratiti kreiranje i usvajanje niza novih, kao i dopuna postojećih pravnih akata iz srodnih oblasti u cilju sveobuhvatne zaštite populacije", objasnili su u toj organizaciji.
Dodaju da osim krivičnog zakonodavstva, u cilju usklađivanja sa već usvojenim evropskim propisima kao što su Artificial Intelligence Act (EU) 2024/1689, Digital Services Act (EU) 2022/2065, Data Act (EU) 2023/2854, Cyber Resilience Act (EU) 2024/2847, GDPR (EU) 2016/679, Digital Markets Act (EU) 2022/1925, NIS2 Directive (EU) 2022/2555 i Data Governance Act (EU) 2022/868, kao nužnost nameće se usvajanje i niza potpuno novih zakona koji do sada nijesu postojali, kao što su Zakon o vještačkoj inteligenciji, Zakon o digitalnim uslugama, Zakon o čuvanju i manipulaciji digitalnim podacima, Zakon o bezbjednosti digitalnih proizvoda, kao i izmjene i dopune postojećih zakona: Zakona o zaštiti podataka o ličnosti, Zakona o zaštiti konkurencije, Zakona o informacionoj bezbjednosti i Zakona o upravljanju podacima.
Drugi predloženi pravac djelovanja je institucionalni odgovor, pa iz STEGA poručuju da država mora razviti operativne kapacitete za digitalnu forenziku.
"To podrazumijeva formiranje specijalizovanih timova unutar specijalizovane nezavisne Vladine agencije zadužene za forenziku, koja ne smije biti unutar policije, sudstva ili tužilaštva, ali bi radila i za njihove potrebe. Pripadnici ove agencije bili bi obučeni za prepoznavanje i analizu deepfake sadržaja, kao i ostvarivali kontinuiranu institucionalnu saradnju sa domaćim i stranim univerzitetima, drugim forenzičkim tijelima i institutima, kao i tehnološkim sektorom. Bez tehničkog znanja institucije ostaju spore, dok se manipulativni sadržaji šire brže od sistema koji treba da ih kontroliše", navodi se u saopštenju.
Treći pravac je organizacioni i razvojni aspekt, a STEGA prepoznaje potrebu kreiranja digitalnog kompasa do 2030. godine kroz uspostavljanje nacionalne strategije za vještačku inteligenciju koja bi istovremeno regulisala rizike i podsticala inovacije i bila u skladu sa Sofijskom deklaracijom i EU Digital Decade Policy Programme 2030.
"To uključuje podršku domaćim projektima, korišćenje AI rješenja u javnoj upravi radi efikasnijeg pružanja usluga građanima, kao i transparentno korišćenje algoritama u javnom sektoru", kažu u ovoj organizaciji.
Četvrti pravac djelovanja koji STEGA smatra nužnim je veća informisanost i transparentnost kroz promociju medijske i digitalne pismenosti.
"Nijedan zakon ne može zamijeniti informisanog građanina, a građanin je informisan ako su mu podaci javno dostupni. Uvođenje medijske i digitalne pismenosti u obrazovni sistem, kao i javne kampanje koje objašnjavaju kako nastaju manipulativni sadržaji, predstavljaju pravce dugoročne zaštite društva", ističe se u saopštenju.
Iz STEGA-e poručuju da se povjerenje ne brani zabranama, već edukacijom, transparentnošću i razumijevanjem.
"STEGA cijeni da je uvijek bolje proaktivno reagovati u cilju sprečavanja ili umanjenja efekata nego retroaktivno djelovati na otklanjanju ili umanjenju nastale štete, a medijsko i digitalno opismenjavanje populacije razvija unutrašnje pojedinačne proaktivne mehanizme odbrane. Svjesno, namjerno i ciljano generisanje i distribucija digitalnog sadržaja nastalog u cilju obmane, a u svrhu ostvarivanja koristi ili nanošenja štete, manipulacijom nad originalnim ili stvaranjem potpuno novog digitalnog sadržaja sa stvarnim akterima koji se nije desio, treba i mora biti detaljno prepoznato i kroz izmjene ili dopune uneseno u crnogorsko zakonodavstvo", navode u toj organizaciji.
Naglašavaju da razlike u regulaciji vještačke inteligencije jasno odražavaju šire političke i društvene modele tri najveća globalna tehnološka prostora - Sjedinjenih Američkih Država i Kine s jedne strane i Evropske unije sa druge strane.
"Iako se sve tri strane suočavaju sa istim tehnološkim izazovima, posebno u oblasti manipulativnih audio i video sadržaja, njihovi odgovori značajno se razlikuju. Američki pristup je znatno decentralizovaniji i tržišno orijentisan. U Sjedinjenim Američkim Državama ne postoji jedinstveni federalni zakon ekvivalentan AI Act-u, već se regulacija razvija kroz kombinaciju sektorskih pravila, preporuka i sudske prakse. Naglasak je na inovaciji i brzom tehnološkom razvoju, dok se problem zloupotrebe, uključujući deepfake sadržaje, uglavnom rješava kroz postojeće zakone o prevari, kleveti i zaštiti potrošača. Prednost ovog modela je fleksibilnost i brzina razvoja, ali nedostatak predstavlja neujednačena zaštita i sporija reakcija na sistemske rizike. Kineski model, s druge strane, karakteriše snažna centralna kontrola i regulatorna intervencija države. Kina je među prvim državama koja je donijela posebna pravila za „generisani sadržaj“, uključujući obavezno označavanje sintetičkih medija i registraciju određenih AI sistema kod regulatora. Međutim, za razliku od evropskog pristupa, fokus nije primarno na zaštiti individualnih prava, već na očuvanju društvene stabilnosti i državne kontrole nad informacijama. Regulacija je stroga i operativno efikasna, ali sa manjim naglaskom na transparentnosti prema korisnicima. Evropski model pokušava zauzeti srednji put između američke deregulacije i kineske centralizacije. Cilj je omogućiti razvoj tehnologije uz očuvanje demokratskih standarda i povjerenja u javni prostor. Upravo zbog toga evropski pristup danas sve češće služi kao referentni okvir državama koje nastoje uskladiti tehnološki razvoj sa pravnom sigurnošću i društvenom odgovornošću", navodi se u saopštenju.
Evropska unija razvila je proaktivni pristup koji STEGA smatra imanentnim crnogorskom putu kao skorašnjem dijelu EU prostora, zasnovan na regulaciji rizika i zaštiti osnovnih prava.
"AI Act (EU) 2024/1689 polazi od pretpostavke da tehnologija mora biti usklađena sa demokratskim standardima, zaštitom privatnosti i transparentnošću. Fokus nije na zabrani razvoja, već na obavezi proizvođača i korisnika da jasno označe 'generisani sadržaj', spriječe obmanu javnosti i preuzmu odgovornost za posljedice upotrebe sistema. Evropski model, koji STEGA preferira, naglašava povjerenje, pravnu sigurnost i dugoročnu stabilnost digitalnog prostora kao pretpostavku skladnog i neometanog ekonomskog, socijalnog, naučnog i obrazovnog razvoja društva", zaključuje se u saopštenju.
Bonus video: