STAV

Vještačka inteligencija i autonomni oružani sistemi

Smanjenje ljudske kontrole nad odlukama o životu i smrti je glavna debata vremena kojoj svjedočimo. Čak i kada, naizgled, možemo “riješiti” sve tehničke probleme autonomnog naoružanja, nedovoljna kontrola nad upotrebom sile ostaje problematična čak i u slučaju “savršene” mašine

2727 pregleda 0 komentar(a)
Foto: Shutterstock
Foto: Shutterstock

Brzina kojom napreduje tehnologija je vrtoglava i nesaglediva. I dok ta činjenica u određenim oblastima našeg života znači promjene na bolje, u drugim, u najmanju ruku, donosi nepredvidivost i rizik za budućnost. Današnji svijet prepun je bezbjednosnih izazova, rizika i prijetnji koje se konstantno umnožavaju i usložnjavaju. Svjedoci smo da ponekad i najbolje namjere rezultiraju posljedicama koje su im potpuno suprotne, pa je oprez i te kako neophodan.

Vještačka inteligencija (AI) polako postaje sveprisutna i pronalazi svoje mjesto u skoro svim sferama našeg života. Na jednoj strani nesumnjivo obećava napredak, kao što je u medicini; uzmimo na primjer radiologiju, gdje se predviđa da će u budućnosti čitanje nalaza biti u potpunosti povjereno vještačkoj inteligenciji, budući da su testiranja pokazala veliku dijagnostičku preciznost, koja čak značajno nadilazi onu koju pružaju ljudi.

U drugim oblastima, međutim, vještačka inteligencija nema tako jasan i nedvojben pravac. Njena primjena u oblasti bezbjednosti, i uopšte vojnoj industriji, ostavlja prostor za zabrinutost i ukazuje na potrebu za dodatnim oprezom pa samim tim i sveobuhvatnijom pravnom regulacijom. Vještačka inteligencija demonstrira kapacitet za analizu, sumiranje, kao i sintetizovanje ogromnih količina podataka. Nesumnjivo mnogo brže nego što su to ljudi u stanju učiniti. Takođe, može da prepozna određene obrasce i veze u brojnim bezbjednosnim aspektima i situacionim analizama, a imajući u vidu da je brzina obavljanja zadatka jedna od glavnih karakteristika vještačke inteligencije, ona je često i ključna komponenta za uspjeh ili poraz u ratovima. Kako trenutno stvari stoje, ova oblast je prilično neuređena i zahtijeva značajnu angažovanost svih društvenih aktera.

Bez obzira na ogroman potencijal koji AI ima za čovječanstvo u smislu napretka i olakšavanja života, nedostaci su ipak vrlo upečatljivi: pokazala se generalno kao veoma nepouzdana u stvarima koje su ljudima prilično jednostavne kao što je razumijevanje konteksta i emocija. AI je dobra samo onoliko koliko su dobri dizajn algoritma i kvalitet unijetih podataka. Što je manje dostupnih podataka za “obuku” AI modela, to lošije funkcionišu u stvarnom životu.

Poseban aspekat razvoja i funkcionisanja vještačke inteligencije koji je značajan u kontekstu analize u vezi je sa autonomnim oružanim sistemima, tzv. LAWS. Na ovom mjestu bi bilo korisno napraviti razliku između vještačke inteligencije koja se koristi za podršku u donošenju odluka (AI DSS) i oružja koje koristi vještačku inteligenciju, s druge strane. Nisu sva oružja koja uključuju AI autonomna, ali autonomija može biti unaprijeđena primjenom AI. Dakle, AI nije nužan uslov za autonomiju, ali čini autonomiju naprednijom. Autonomija u oružju donosi brojne etičke i pravne izazove - jer udaljava čovjeka od ključnih odluka o životu i smrti.

Postoje dokazi da su ovi sistemi uveliko našli svoju primjenu u raznim ratnim žarištima, uključujući ukrajinsko-ruski konflikt. Njihov potencijal na bojištu je značajan, ali isto tako jednako zastrašujući. Prirodno, nameću se brojne nedoumice i bojazni, a prve se tiču neke od nedostatka odgovornosti, jer autonomni sistemi mogu eliminisati više meta nego što je to bila namjera. Logično, postavlja se pitanje krivice u slučaju ratnih zločina, odnosno odgovornosti. Pravna struka nesumnjivo se nalazi u ogromnom problemu. Uzgred, ne manje bitno, autonomni sistemi funkcionišu na osnovu povjerljivih podataka koje pojedinci pohranjuju u njima, pa samim time mogu ući u interakciju sa neprijateljskim sistemima slične namjene na načine koji mogu biti neočekivani. Na primjer, iznenadni pokret protivničke vojske može izazvati potpuno nenamjernu eskalaciju konflikta, gdje bi u tim situacijama sistem odreagovao bez ljudskog miješanja. Uz sve to brine i činjenica da se ovi sistemi mogu proizvoditi po niskim troškovima što ih samim tim čini atraktivnim za terorističke, kriminalne grupe i druge grupacije. Nije nemoguće zamisliti da bi eventualna laka dostupnost takvog oružja olakšala targetiranje državnika, vojnih ili političkih lidera i olakšala pokretanje nestabilnosti u određenoj zemlji.

Sve pomenute dileme i pitanja impliciraju da međunarodno pravo mora da pruži pravovremen i adekvatan odgovor na izazove koji AI nosi. Norme Međunarodnog humanitarnog prava u trenutku nastajanja nijesu mogle uzeti u obzir savremena dešavanja poput sajber prostora, ili autonomnih oružanih sistema, pa je, za početak, neophodno razviti set pravila koja su upravo prilagođena ovim izazovima, a pritom poći od toga da glavni cilj pravne regulacije treba da bude zaštita civila i ograničavanje moguće štete do koje može doći nesavjesnom upotrebom i razvojem savremenih tehnologija u sferi odbrane i bezbjednosti. Zabrinutost upravo leži u prepuštanju ljudske kontrole nad upotrebom sile mašinama.

Smanjenje ljudske kontrole nad odlukama o životu i smrti je glavna debata vremena kojoj svjedočimo. Čak i kada, naizgled, možemo “riješiti” sve tehničke probleme autonomnog naoružanja, nedovoljna kontrola nad upotrebom sile ostaje problematična čak i u slučaju “savršene” mašine. I svi društveni akteri moraju urgentno pronaći odgovore iz ove debate.

Autor je ekspert za bezbjednost

Bonus video:

(Mišljenja i stavovi objavljeni u rubrici "Kolumne" nisu nužno i stavovi redakcije "Vijesti")