NEKO DRUGI

Vještačka inteligencija ide u rat

Sukob američke administracije s Anthropicom, kompanijom koja je odbila razvijati autonomno oružje i alate za masovni nadzor građana, stavio je u fokus ulogu umjetne inteligencije u suvremenom ratovanju. Istodobno, jedan je znanstveni eksperiment pokazao kako ta uloga može postati katastrofalna

1702 pregleda 1 komentar(a)
Foto: Shutterstock
Foto: Shutterstock

(portalnovosti.com)

Rat je nastavak politike drugim sredstvima, davno je zaključio Carl von Clausewitz. Ali ovih dana, dok pratimo vijesti iz Ukrajine i Irana, interesantnije zvuči drugačija definicija ratovanja. Prekaljena pruska generalčina, naime, nije uspoređivala rat samo s politikom, nego i s ekonomijom. Rat je, kaže on, “sukob velikih interesa koji se rješava krvoprolićem”.

I zato: “Bolje ga je usporediti s trgovinom nego s bilo kojom drugom djelatnošću, jer trgovina je također sukob ljudskih interesa i aktivnosti.” Iako manje poznata, ova formula mnogo toga otkriva u danima kada ukrajinska i iranska bojišta postaju laboratoriji za istraživanje smrtonosne primjene najpropulzivnije svjetske industrije. Riječ je, naravno, o industriji umjetne inteligencije.

Uostalom, Izrael je još prije agresije na Iran, za vrijeme genocida u Gazi, isprobao Lavender: program koji do sada nezamislivom brzinom identificira legitimne mete. Brzina je pritom doslovno nezamisliva – kalkulacije Lavendera naprosto su brže od ljudskih misli – a što je točno “legitimna meta” ovisilo je o uputama koje program dobiva.

Kako mu je izraelska armija dozvolila da na jednog vojnika Hamasa, ovisno o njegovom činu, eliminira između 15 i 100 civilnih žrtava, imao je priličnu slobodu u izboru ciljeva, a Izraelci su zauzvrat dobili alatku za rijetko efikasan masakr.

U Ukrajini se za to vrijeme testiraju sustavi za automatsko prepoznavanje lica vojnika i geolokaciju meta pomoću amaterskih snimki s mobitela, dok se izraelsko-američka agresija na Iran oslanja na umjetnointeligentnu analizu nepreglednih količina podataka prikupljenih pomoću dronova, hakiranih nadzornih kamera i dobrih starih doušničkih izvora. Ključnu ulogu u operacijama američke vojske igrao je pritom Claude, program u vlasništvu tvrtke Anthropic. A upravo zbog Claudea i Anthropica priča o dolasku umjetne inteligencije na prvu liniju fronta napokon je ovih dana ušla u fokus javnosti.

Vjerojatno već znate kako je priča započela. U petak, šestog marta, američko Ministarstvo obrane – koje u dirljivom napadu iskrenosti samo sebe naziva Ministarstvom rata – objavilo je da raskida ugovor s Anthropicom, vrijedan oko 200 milijuna dolara. Razlog: kompanija je odbila zahtjev Pentagona da ukloni internu zabranu razvoja potpuno autonomnog oružja, neovisnog o ljudskim inputima, kao i zabranu razvoja alata za masovni nadzor građana SAD-a.

“Ljevičarski luđaci iz Anthropica napravili su katastrofalnu grešku pokušavajući prisiliti Ministarstvo rata da se pokori njihovim uvjetima”, poručio je Donald Trump: “Mi ćemo odlučivati o sudbini naše zemlje – a ne neka radikalno lijeva AI kompanija koju vode ljudi koji nemaju pojma o tome što je stvarni svijet!”

Ministar obrane – pardon, rata – Pete Hegseth zatim je demonstrirao kako prolaze oni koji se ne povinuju predsjednikovim željama: “Nijedan izvođač, dobavljač ili partner koji posluje s vojskom Sjedinjenih Država više ne smije obavljati nikakvu komercijalnu djelatnost s Anthropicom.” Uspješna tehnološka kompanija, koja već pokreće tužbu protiv vlade, tako je preko noći postala prva američka tvrtka službeno proglašena sigurnosnim rizikom za SAD: ta je etiketa do sada bila rezervirana isključivo za firme povezane s Kinom ili nekom drugom, Trumpu posebno mrskom stranom državom. Istoga dana kada je raskinuo ugovor s Anthropicom, pritom, Pentagon je sklopio suradnju s njihovim konkurentima iz OpenAI-ja, kompanije koja stoji iza ChatGPT-ja.

Njezin direktor Sam Altman tvrdi da će se u toj suradnji čvrsto držati etičkih načela, ali malo tko mu vjeruje: šira javnost stala je na stranu Anthropica, stotine zaposlenika različitih IT-firmi potpisale su pisma podrške, kampanja #quitGPT nagnala je brojne korisnike da otkažu pretplate Altmanovoj tvrtki, a Claude je, s druge strane, na dan otkazivanja ugovora s američkom vladom prvi put u povijesti postao aplikacija s najviše downloada na Appleovim uređajima.

Priča se, ukratko, pričala sama, a podjela uloga bila je jednostavna. Dobar, loš, zao: s jedne strane odgovorna kompanija koja se vodi visokim moralnim načelima po cijenu sukoba s državnom vlašću, s druge strane njihova oportunistička konkurencija, a s treće strane pomahnitali predsjednik koji je naumio srušiti međunarodni pravni poredak. Priča se, rekosmo, priča sama: na nevolju, priča nije baš tako jednostavna.

Za promjenu, naime, ovog bi puta vrijedilo ozbiljno saslušati što govori Trumpova administracija. Iz Washingtona i Pentagona raskid ugovora s Anthropicom objasnili su jednostavnim razlogom, prikazavši kraj suradnje kao sukob oligarhije i demokracije: ne može neka tvrtka, ma koliko bila bogata – poručili su – odlučivati o političkim pitanjima koja se tiču svih građana i kojima se bavi legalno izabrana vlast.

Jasno je, naravno, da ovakav argument počiva na dubokoj hipokriziji, jer demokracija kakvu Trump zamišlja podrazumijeva da se mu se oligarsi poklone ili da budu kažnjeni, a podrazumijeva i uvođenje masovnog nadzora nad istim onim narodom u čije ime donosi odluke. U Trumpovoj laži, međutim, krije se djelić istine. Jer zašto bi, doista, privatne kompanije vođene uskim interesom investitora samostalno odlučivale o stvarima koje mogu imati tako nepredvidljive posljedice kao što ih ima umjetna inteligencija?

Zašto, pogotovo onda kada se te odluke tiču ljudskih života? Zašto bi takve odluke trebalo donositi tržište, a ne demokratska većina kojoj se – pretpostavljamo – ideja autonomnih robota-ubojica ne bi naročito svidjela? Zašto, ako znamo da je industrija umjetne inteligencije u kritičnoj fazi i da još uvijek nije profitabilna, pa ovisi o optimizmu ulagača i burzovnom balonu njihovih investicija?

Zašto, napokon, ako znamo da tržište upravo u fazama povećanog rizika traži deregulaciju i insistira na uklanjanju svih prepreka pred potencijalnom zaradom, pa makar prepreku predstavljala puka briga za sigurnost čovječanstva?

Negdje u domeni ovih jednostavnih pitanja kao da završava ona priča s jasnom podjelom uloga. Tamo gdje odluke donosi tržište, naime, individualna akcija ne znači previše: tek što se netko iz etičkih pobuda povuče iz natjecanja, njegovo mjesto zauzme konkurencija koju etika toliko ne zanima. U tužnom epilogu naše priče, uostalom, i široka javna podrška Anthropicu brzo je okopnila: niti tjedan dana nakon raskida ugovora Claude više nije držao prvo mjesto liste najpopularnijih aplikacija. Preuzeo mu ga je – pogađate – baš OpenAI-jev ChatGPT.

Pravi problem s našom pričom, međutim, mogao bi biti u tome što još uvijek nismo stigli do tužnog epiloga. A kako bi taj epilog doista mogao izgledati otkrio je, igrom slučaja, upravo u danima velikog sukoba Trumpove administracije i Anthropica jedan znanstveni rad. U njemu je profesor Kenneth Payne, stručnjak za strategijske studije s londonskog King’s Collegea, predstavio rezultate jednostavnog eksperimenta.

Različitim programima umjetne inteligencije – uključujući one OpenAI-jeve i Anthropicove – zadao je izmišljene scenarije međunarodnih konflikata i zatim promatrao kako će ih riješiti sami, bez ljudske intervencije. Ispostavilo se da programi istih onih kompanija koje stoje iza naših prijateljski raspoloženih chatbota u 95 posto slučajeva posežu za opcijom nuklearnog rata.

Umjetna inteligencija tako redovno bira soluciju koju ljudi ne bi odabrali ni u jednom slučaju jer umjetnoj inteligenciji – kako se čini – ljudski životi izgubljeni u nuklearnoj katastrofi naprosto nisu pri vrhu liste prioriteta. I to je popriličan razlog za brigu u doba kada predsjednik najmoćnije države svijeta ukida sve razumne kočnice razvoja umjetne inteligencije. Ili, drugim riječima: ako je rat, prema starom pruskom vojskovođi, nastavak ekonomije drugim sredstvima, onda se čini da smo na korak od toga da sredstva postanu nuklearna.

Bonus video:

(Mišljenja i stavovi objavljeni u rubrici "Kolumne" nisu nužno i stavovi redakcije "Vijesti")