Mihailović: Vještačka inteligencija ne zna, već predviđa
Tehnologiji se pripisuje veća pouzdanost od one koju ona zaista ima i automatizovanom sistemu ljudi vjeruju više nego sopstvenoj procjeni Odgovor generisan algoritmom može zvučati uvjerljivo, precizno i samouvjereno, što lako stvara utisak da je i činjenično tačan Pitanje više nije da li škole kasne, već šta se uopšte smatra znanjem u eri generativne inteligencije
Veliki broj ljudi svakodnevno koristi alate zasnovane na vještačkoj inteligenciji, ali ih doživljava kao “pametne sisteme” koji daju tačne odgovore, a ne kao modele koji generišu odgovore koji su vjerovatni. Tehnologiji se pripisuje veća pouzdanost od one koju ona zaista ima i automatizovanom sistemu ljudi vjeruju više nego sopstvenoj procjeni.
To je, pored ostalog, za “Vijesti” rekla dr Andreja Mihailović, menadžerka Inovacionog haba za sajber bezbjednost Univerziteta Crne Gore (UCG). Ona dodaje da je upravo to i jedna od ključnih slabosti savremenog informacionog okruženja.
Mihailović je za “Vijesti” govorila o AI pismenosti, odgovornosti, ali i značaju regulative i edukacije o tome kako biti AI pismena osoba.
Danas biti AI pismen, pojašnjava ona, ne znači znati koristiti alat, već razumjeti njegovu logiku, ograničenja i uticaj.
“A to podrazumijeva sposobnost da se prepozna kako sistemi poput ChatGPT ili generatora slika funkcionišu na osnovu statističkih obrazaca iz ogromnih skupova podataka, a ne na osnovu razumijevanja u ljudskom smislu. AI ne ‘zna’, već predviđa i upravo je ta razlika i ključna za pravilnu upotrebu, razumjeti da rezultat može biti uvjerljiv, a istovremeno netačan, pristrasan ili potpuno izmišljen”, kazala je Mihailović.
Prema njenim riječima, veliki broj ljudi svakodnevno koristi AI alate, ali ih doživljava kao “pametne sisteme” koji daju tačne odgovore, a ne kao modele koji generišu vjerovatne odgovore.
“Istraživanja i praksa pokazuju da većina korisnika ne razumije fenomene poput halucinacija, pristrasnosti modela ili zavisnosti od ulaznih podataka”, pojašnjava sagovornica “Vijesti”.
Ona ukazuje i da podaci istraživačkog centra Pew iz 2025. pokazuju da je čak 95 odsto odraslih u Sjedinjenim Američkim Državama (SAD) čulo za vještačku inteligenciju, a da samo 47 odsto smatra da zaista razumije kako ona funkcioniše. Istovremeno, dodaje ona, više od 60 odsto ispitanika dolazi u kontakt sa tim sistemima više puta sedmično.
“Tehnologija je postala dio svakodnevice mnogo brže nego što se razvilo razumijevanje njenog djelovanja. To stvara novu vrstu ranjivosti u digitalnom prostoru jer kada tehnologija djeluje složeno i sofisticirano, ljudi joj često pripisuju veću pouzdanost nego što je ona zaista ima. Odgovor generisan algoritmom može zvučati uvjerljivo, precizno i samouvjereno, što lako stvara utisak da je i činjenično tačan. Upravo u toj psihološkoj dinamici nastaje jedna od ključnih slabosti savremenog informacionog okruženja: sklonost da automatizovanom sistemu vjerujemo više nego vlastitoj procjeni”, kazala je Mihailović i dodala da je u digitalnom prostoru zato danas važno znati da uvjerljivost digitalnog sadržaja nije isto što i njegova istinitost.
Širenje dezinformacija
Sagovornica “Vijesti” pojašnjava i da je AI značajno promijenio način na koji nastaju i šire se dezinformacije.
“Nekada je za uvjerljivu manipulaciju bilo potrebno vrijeme, resursi i koordinisan rad više ljudi. Danas jedan pojedinac može za nekoliko minuta generisati veliki broj lažnih objava, sintetičkih fotografija, imitacija glasova ili video-snimaka i prilagoditi ih različitim publikama. Savremena literatura ovaj fenomen opisuje kao informacioni poremećaj, tj. okruženje u kojem se prepliću dezinformacije, nenamjerne netačne informacije i namjerno manipulisan sadržaj, a generativni sistemi taj proces čine bržim, jeftinijim i uvjerljivijim”, kazala je Mihailović.
Još ozbiljniji problem, dodaje, predstavlja ono što istraživači nazivaju “zagađenjem saznajnog prostora”.
“Kada je digitalno okruženje preplavljeno sadržajem koji izgleda autentično, ali može biti potpuno sintetički, građanima postaje sve teže da procijene šta je vjerodostojno. Prema izvještaju Reuters Instituta iz 2025, više od polovine ispitanika širom svijeta zabrinuto je da li je sadržaj koji vide na internetu stvaran ili manipulisan. To pokazuje da problem dezinformacija više nije samo pitanje pojedinačnih lažnih vijesti, već pitanje očuvanja uslova u kojima društvo uopšte može pouzdano razlikovati činjenice od manipulacije”, kaže i dodaje da u takvom okruženju rizik nije samo da ljudi povjeruju u lažnu informaciju, već i da počnu sumnjati u autentične dokaze.
Deepfake snimci, AI generisan sadržaj
Realnu prijetnju predstavljaju i deepfake snimci i sadržaj koji je generisan korišćenjem AI tehnologije.
“I to iz dva razloga. Prvi je očigledan: mogu se koristiti za prevaru, ucjenu, političku manipulaciju i reputacionu štetu. Drugi je manje vidljiv, ali možda opasniji: čak i kada je snimak stvaran, ljudi sada mogu tvrditi da je lažan. To je u nauci prepoznato kao koncept liar’s dividend. Drugim riječima, sama činjenica da deepfake postoji omogućava političarima, javnim ličnostima ili prevarantima da autentične dokaze proglase montiranim tako da tu više nismo samo u problemu laži, nego u problemu sistematske erozije koncepta istine.”
Sagovornica “Vijesti” ukazuje na istraživanje objavljeno u Social Media + Society, prema kojem deepfake politički video ne mora nužno uvijek direktno promijeniti stav, ali povećava konfuziju, nesigurnost i slabi povjerenje u vijesti, dok PMC, dodaje ona, pokazuje da ljudi često ne mogu pouzdano prepoznati deepfake, ali precjenjuju svoju sposobnost da ga otkriju, što je izuzetno opasan spoj: niska detekcija i visoko samopouzdanje.
“U sajber bezbjednosti bismo rekli da je to idealan teren za napad kada meta misli da je sigurnija nego što jeste.”
Odgovornost
Govoreći o odgovornosti, Mihailović je kazala da ona nije ravnomjerno raspoređena, već prati stepen stvarne kontrole nad informacionim ekosistemom.
“U tom smislu, najveću odgovornost snose digitalne platforme, jer one dizajniraju algoritme koji određuju šta ćemo vidjeti, šta će postati viralno i kako se informacije šire. Upravo zbog tog sistemskog uticaja, EU kroz Digital Services Act i povezano kroz EU AI Act nameće platformama najstrože obaveze, uključujući procjenu rizika dezinformacija i implementaciju mjera za njihovo ublažavanje.”
Važnu, ali kvalitativno drugačiju odgovornost, prije svega profesionalnu i etičku, imaju i mediji:
“Oni su odgovorni za kvalitet informacija, ali više nemaju monopol nad distribucijom u mjeri u kojoj imaju platforme, posebno kada je riječ o algoritamski posredovanoj vidljivosti sadržaja.”
Odgovornosti, dodaje Mihailović, nisu lišeni ni korisnici, na njima je da ne šire lažne informacije i da kritički pristupaju sadržaju. Oni nemaju kontrolu nad sistemom, pa njihova odgovornost, kaže ona, ne može biti jednaka.
Mihailović je kazala i da rješenje nije u prebacivanju krivice, već u koordinisanom pristupu svih aktera, uz jasnu regulatornu ulogu države i EU.
To što regulacija AI tehnologije kasni za njenim razvojem, utiče i na digitalnu pismenost, jer su građani u zoni pravne i informacione neizvjesnosti.
“Ne znaju šta platforme moraju da označavaju, šta kreatori sintetičkog sadržaja smiju ili ne smiju, niti kome se obratiti kada su prevareni ili diskreditovani. To direktno utiče na digitalnu pismenost, jer ljudi uče u nestabilnom okruženju bez jasnih pravila igre. U takvoj situaciji nastaje paradoks: od građana se traži da budu sve odgovorniji, dok sistemska pravila ostaju nedovoljno jasna ili nedovoljno sprovedena. Tu nastaje ključni paradoks savremenog digitalnog društva: od pojedinaca se očekuje sve veći nivo kritičkog mišljenja i odgovornosti, dok sistemska pravila ostaju fragmentirana, nedovoljno jasna ili nedovoljno sprovedena. Drugim riječima, individualna odgovornost raste brže od institucionalne”, kaže Mihailović.
Kao važan, dodaje i koncept sintetičke realnosti - osjećaj da digitalni prostor više nije samo mjesto informacija, nego mjesto industrijske proizvodnje privida.
“Kada pravni okvir kasni, tržište pažnje popunjava vakuum. Tada cvjeta i ono što kritička literatura zove ‘kolonijalizam podataka’: ogromne kompanije privatizuju podatke koje svi proizvode, a zatim na tim podacima grade sisteme koji oblikuju javno znanje. Zato pitanje digitalne pismenosti ili privatnosti se svodi na igru moći - ko kontroliše infrastrukturu znanja, ko oblikuje kolektivno razumijevanje stvarnosti i zbog kojih interesa”.
Šta je znanje
Govoreći o značaju edukacije, Mihailović je kazala da su škole decenijama učile djecu kako da pronađu informaciju, a da danas moraju da ih uče kako da procijene da li je informacija autentična, sintetička, manipulisana ili je halucinacija modela.
“Problem nije u nedostatku svijesti o značaju AI-ja, već u inertnosti kojom se obrazovne institucije mijenjaju: kurikulumi se ažuriraju rijetko, nastavnici nemaju sistemsku i kontinuiranu obuku za rad sa AI alatima, a metode ocjenjivanja i dalje počivaju na provjeri reprodukcije znanja. To znači da se obrazovni sistem često bori sa jučerašnjim problemima, dok učenici već žive u sjutrašnjem informacionom okruženju”, kaže ona i dodaje da time nastaje dubok raskorak: obrazovni sistem i dalje testira ono što AI može generisati u sekundi, dok istovremeno ne razvija dovoljno ono što AI ne može: kritičko mišljenje, procjenu izvora, razumijevanje konteksta i etičke implikacije tehnologije.
Prema njenim riječima, pitanje više nije da li škole kasne, već šta se uopšte smatra znanjem u eri generativne inteligencije.
“Ako učenik može dobiti ‘tačan’ odgovor bez razumijevanja procesa, onda obrazovanje mora redefinisati fokus, sa rezultata na način razmišljanja. U suprotnom dobijamo generaciju koja zna da koristi alat, ali ne zna kada da mu ne vjeruje.”
Upravo u tom pravcu, kaže Mihailović, ide i inicijativa UCG, koji kroz saradnju sa partnerima iz Ulysseus alijanse evropskih univerziteta realizuje projekat METACOG, usmjeren na razvoj metakognitivnih kompetencija u digitalnom i AI okruženju.”Projekat se fokusira na osposobljavanje studenata i nastavnog kadra da razumiju kako nastaje znanje u eri generativnih modela, kako da kritički evaluiraju AI-generisane sadržaje i kako da svjesno upravljaju sopstvenim procesima učenja u interakciji sa inteligentnim sistemima, čime direktno adresira ključni jaz između tehnološkog napretka i obrazovnih praksi.”
Porijeklo važnije od “lova na greške”
Na pitanje kako prepoznati da je sadržaj možda generisan uz pomoć AI-ja, Mihailović kaže da ne traže “jedan magični znak”:
“Jer najbolji sintetički mediji više nisu puni očiglednih grešaka. Savremeni generativni modeli rijetko ostavljaju očigledne tragove, pa je mnogo relevantnije posmatrati odnos između elemenata u kadru.”
Tako preporučuje da se posmatra da li osvjetljenje odgovara logici prostora, da li su sjenke i refleksije konzistentne, da li perspektiva i dubina djeluju uvjerljivo.
“Kod vizuelnog sadržaja javljaju se suptilne anomalije: neprirodni detalji na rukama, očima ili pozadini, kao i previše ‘polirana’ estetika bez prirodnih nesavršenosti koje su karakteristične za stvarne snimke. Kod videa, analiza se proširuje na dinamiku i sinhronizaciju. Nesklad između pokreta usana i zvuka, mikrovarijacije u izrazu lica koje djeluju sterilno, kao i glas bez prirodnih spontanih varijacija u disanju i intonaciji često ukazuje na sintetičko porijeklo”, savjetuje Mihailović i dodaje da je od vizuelnog “lova na greške” važnija provjera porijekla.
Danas je, prema njenim riječima, autentičnost više pitanje lanca povjerenja nego samog piksel-po-piksel utiska.
“Iako evropski regulatorni okvir, posebno AI Act, uvodi obaveze označavanja određenih kategorija sintetičkog sadržaja, u praksi će ključnu ulogu imati kritičko opažanje korisnika, jer tehnička i pravna rješenja ne pokrivaju sve oblike generisanog sadržaja. Ključno pitanje koje građanin treba da postavi nije “da li je ovo istina”, već ‘ko ima interes da ovo izgleda kao istina’? Upravo tu počinje stvarna digitalna pismenost - u razumijevanju namjere, a ne samo forme”.
Triput razmisli, pa podijeli
Kao savjet kod dijeljenja informacija, Mihailović kaže prosto - usporite.
“Većina manipulativnog sadržaja računa na impuls, bijes ili šok. Ako vas objava tjera da je odmah podijelite, to je već signal za oprez. Zatim treba provjeriti tri stvari: izvor, vrijeme i potvrdu. Ko je prvi objavio? Kada je to navodno nastalo? Da li istu informaciju potvrđuju kredibilni mediji ili relevantne institucije? Takva provjera ne zahtijeva napredna tehnička znanja, već promjenu navike: prelazak sa impulsivnog dijeljenja na svjesnu procjenu ka aktivnom istraživanju porijekla informacije.”
Kod vizuelnog sadržaja, dodaje ona, obrnuta pretraga jedan je od najefikasnijih metoda provjere.
“Suština je u tome da se slika ili isječak iz videa ne posmatra kao dokaz, već kao digitalni otisak koji ima svoju istoriju. Umjesto da vjerujemo onome što vidimo, pokušavamo da utvrdimo gdje je to već viđeno. Kada se slika ili izdvojeni kadar iz videa ubaci u alate poput Google Images ili TinEye, oni mapiraju njegovo prethodno pojavljivanje na internetu”, kazala je Mihailović i dodala da se u praksi često otkrije da sadržaj koji se predstavlja kao aktuelan zapravo potiče iz potpuno drugačijeg konteksta, ponekad star nekoliko godina, iz druge države ili vezan za sasvim drugi događaj.
Kako su se advokati obrukali
AI može da predloži put, ali ne smije da sama odluči gdje društvo treba da stigne, poručuje Mihailović i dodaje da OECD principi pouzdane AI upravo insistiraju na ljudskom nadzoru, odgovornosti i provjerljivosti.
“U praksi, to znači da građani, nastavnici, urednici, sudije i ljekari moraju znati kada da pitaju: na osnovu čega je sistem ovo rekao? Ako taj korak izostane, dobijamo privid efikasnosti, ali rizikujemo ozbiljne posljedice”, kaže ona.
Kao primjer navodi slučaj advokata iz Njujorka (predmet Mata protiv Avianca, 2023), koji su u sudskom podnesku koristili generativni AI za pravno istraživanje i dostavili niz presuda koje uopšte nisu postojale.
Sud je utvrdio da su citirani slučajevi bili “halucinirani”, odnosno da ih je model potpuno izmislio, što je dovelo do sankcija i ozbiljnog narušavanja profesionalnog integriteta advokata.
Koristan alat, ali granice moraju biti jasne
Mediji mogu da koriste AI, ali da bi očuvali povjerenje javnosti, važno je na koji način to čine.
Mihailović kaže da AI može značajno da unaprijedi novinarstvo: od analize velikih skupova podataka, preko automatizacije rutinskih zadataka, transkripcije intervjua, do prepoznavanja obrazaca u podacima.
“Problem nastaje kada AI pređe iz pomoćnog u nevidljivog autora, a redakcija ne objasni granice te upotrebe”, pojašnjava ona i dodaje da to prepoznaje i EU AI Act, koji uvodi obaveze označavanja sintetičkog sadržaja i naglašava potrebu da korisnici budu svjesni kada komuniciraju sa AI sistemima.
“Povjerenje se ne čuva time što se AI skriva, nego time što se njena upotreba čini transparentnom i provjerljivom”, kazala je Mihailović.
Kao dobar primjer, ona navodi Reuters, koji u javnoj komunikaciji naglašava da generativnu AI može koristiti umjetnički ili tehnički, ali da u novinskom izvještavanju zadržava stroga urednička pravila koja zabranjuju generisanje fotografija i videa za vijesti.
“To je važna lekcija za medije jer publika prihvata tehnologiju mnogo lakše kada vidi da redakcija nije prepustila istinu automatizaciji. U eri sintetičkih medija, medij neće pobijediti time što je ‘najbrži’, nego time što je najjasniji u pogledu porijekla, metoda i odgovornosti”.
( Damira Kalač )