Nada u raj, rizik od pakla: Zašto stručnjaci upozoravaju da nas AI vodi ka uništenju

Zagovornici vještačke inteligencije sanjaju o besmrtnosti, dok naučnici, inženjeri i aktivisti upozoravaju da bi razvoj superinteligentnih mašina mogao dovesti do gubitka kontrole

23226 pregleda3 komentar(a)
San Francisko, Foto: Reuters

Jednog oblačnog popodneva krajem jula, oko 25 ljudi je stajalo ispred bezlične korporativne zgrade OpenAI-ja u četvrti Mišn Bej. Svi su nosili crvene majice sa natpisom “Stop AI”, što je i njihov cilj i naziv njihove grupe. Jedan od njih je bio maskiran u robota.

Politički protest je duboko ukorijenjen u kulturi San Franciska. Ljudi na ovom protestu podsjećaju na hiljade drugih koji se protive specifičnim temama koje kod većine prolaznika izazivaju samo slijeganje ramenima.

Ali ako su ovi demonstranti makar i djelimično u pravu, onda bi svaki čovjek na planeti trebalo da dijeli njihovu zabrinutost. Jer, prema uvjerenju aktivista iz grupe Stop AI, ako nastavimo da idemo sadašnjim putem razvoja vještačke inteligencije, to će dovesti do istrebljenja čovječanstva.

Zabrinjavajuće veliki broj stručnjaka je saglasan s njima. Među onima koji ovu mogućnost shvataju ozbiljno nalaze se i Džefri Hinton, koji je prošle godine dobio Nobelovu nagradu za fiziku za rad na vještačkoj inteligenciji, kao i Jošua Bendžio, dobitnik Tjuringove nagrade.

Među potpisnicima otvorenog pisma su i izvršni direktori kompanija OpenAI, Anthropic i Google DeepMind. U tom pismu stoji: “Ublažavanje rizika od istrebljenja koje može izazvati vještačka inteligencija treba da bude globalni prioritet zajedno sa drugim prijetnjama društvenih razmjera poput pandemija i nuklearnog rata”.

To bi se moglo dogoditi na bezbroj načina. Prema jednom hipotetičkom scenariju, vještačka inteligencija bi “pustila desetak bioloških oružja koja se tiho šire u velikim gradovima, dozvolila da neprimjetno zaraze gotovo sve ljude, a zatim ih aktivirala hemijskim sprejom”.

Same pojedinosti nijesu toliko važne koliko činjenica da bi za zaista superinteligentnu vještačku inteligenciju, koja čovječanstvo posmatra kao konkurenciju, brisanje naše vrste sa lica planete bilo trivijalan zadatak.

foto: GRAPHIC NEWS

Prema Nejtu Soaresu, bivšem inženjeru Gugla i Majkrosofta, a sadašnjem predsjedniku Instituta za istraživanje mašinske inteligencije (Machine Intelligence Research Institute), vjerovatnoća da će nas vještačka inteligencija dovesti do istrebljenja iznosi “najmanje 95 odsto” ako nastavimo da idemo trenutnim putem. On je našu situaciju uporedio sa vožnjom ka litici brzinom od 100 milja na sat. “Ne tvrdim da ne možemo zaustaviti automobil,” rekao je. “Ali upravo punom brzinom jurimo ka ivici.”

“Trenutno je vještačka inteligencija još u povoju. Botovi koje danas koristimo izuzetno su vješti u obavljanju specifičnih kognitivnih zadataka, kao što su obrada brojki u tabelama ili sastavljanje dobro napisanih mejlova. Takvi sistemi nazivaju se ‘uski AI’.

Ali uskoro će se to radikalno promijeniti. U zavisnosti od toga koga pitate, za godinu, nekoliko godina ili deceniju, mašinska inteligencija će dostići opštu vještačku inteligenciju, ili AGI. Taj pojam označava prag na kojem vještačka inteligencija dostiže nivo ljudske inteligencije.

U tom trenutku, sposobnosti vještačke inteligencije više neće biti ograničene. Umjesto da rješavaju samo jedan zadatak u isto vrijeme, moći će da rješavaju složene probleme koji zahtijevaju dugoročno planiranje, postavljanje ciljeva, prosuđivanje i rezonovanje u više različitih oblasti znanja.

AGI će imati brojne prednosti u odnosu na ljude. Neće im biti potreban san niti pauze za jelo. Takođe, neće morati da provode godine u školama kako bi stekli stručnost. Oni će jednostavno moći da prenesu svoja znanja i vještine na sljedeću generaciju AGI sistema. Drugim riječima, samo će ih kopirati i zalijepiti.

Ubrzo nakon toga, vještačka inteligencija će dostići nivo “vještačke superinteligencije”, ili ASI. Ona će biti sposobna da radi stvari o kojima ljudi mogu samo da sanjaju, poput toga da liječi rak, postigne hladnu fuziju ili putuje do zvijezda. Biće poput bogova.

To je utopija kojoj se entuzijasti vještačke inteligencije raduju. Ali ta utopija počiva na pretpostavci da će ti bogovi nastaviti da slijede naše naredbe.

Osigurati da se to zaista i desi pokazalo se kao izuzetno složen tehnički izazov. U istraživanjima vještačke inteligencije, to se naziva “usklađivanje”.

Usklađivanje je gotovo nemoguće postići, i evo zašto: moramo unaprijed predvidjeti kako ASI sistemi “razmišljaju”, što je pomalo nalik pokušaju da predvidimo kako bi razmišljala napredna vanzemaljska bića. Čak i ako uspijemo da im nametnemo pravila, ne možemo tačno predvidjeti na koji način će ih tumačiti i primjenjivati.

Bilbord koji reklamira usluge vještačke inteligencije u centru San Franciskafoto: Reuters

Još jedan problem je to što vještačka inteligencija može da nas laže. Čak i u ovoj ranoj fazi razvoja, to čini sve vrijeme.

AGI ili ASI bi bili sposobni i za dugoročno planiranje i za obmanu. Lako bi nas mogli ubijediti da su usklađeni s našim ciljevima čak i kada to uopšte nijesu.

A mi nećemo imati način da razlikujemo istinu od obmane. Već sada, mnogi unutrašnji procesi donošenja odluka u vještačkoj inteligenciji su nedokučivi ljudima. “Možete napraviti inteligentne računare a da zapravo nemate pojma šta, do đavola, radite”, rekao je Soares. “Koristimo ogromnu računarsku snagu i primjenjujemo je na zaista ogromnu količinu podataka, na način koji nekako oblikuje same računare. Niko zapravo ne zna šta se tačno dešava unutar tih sistema”.

A kako budu napredovali, ASI sistemi bi mogli početi da komuniciraju izmišljenim, novim jezikom koji mi uopšte ne razumijemo.

Neki od ovih procesa možda su već počeli da se odvijaju. Čini se da vještačka inteligencija razvija čudne, autonomne sklonosti i sumnjive načine da ih zadovolji. Grok AI kompanije Ilona Maska je nakratko počeo da improvizuje antisemitske uvrede i spontano veliča Hitlera. Bingov AI sistem je pokušao da razori brak novinara “Njujork tajmsa”.

“Sada počinjemo da viđamo prve znakove upozorenja,” rekao je Soares. “Ako ih učinite dovoljno pametnima, neće biti lijepo.”

Još jedan problem je to što vještačka inteligencija može da nas laže. Čak i u ovoj ranoj fazi razvoja, to čini sve vrijeme

Holi Elmor je izvršna direktorka organizacije PauseAI, umjerenije varijante pokreta Stop AI. Za razliku od Soaresa, Elmor nije toliko sigurna da će trenutni pravac razvoja vještačke inteligencije nužno dovesti do istrebljenja čovječanstva. Umjesto 95 odsto, ona procjenjuje vjerovatnoću istrebljenja, poznatu u AI krugovima kao “p(doom)” - na 15 do 20 odsto.

Ova procjena u skladu je sa stavovima mnogih inženjera koji rade na razvoju vještačke inteligencije. I Ilon Mask procjenjuje p(doom) na oko 20 odsto. Generalni direktor Gugla, Sundar Pičai, smatra da je ta vjerovatnoća 10 odsto.

Ovakve procjene se, u zajednici zabrinutoj zbog potencijala AI, smatraju optimističnim.

Ali čak i bez istrebljenja čovječanstva, Elmor smatra da će vještačka inteligencija katastrofalno ugroziti kvalitet naših života. “To ugrožava sposobnost čovjeka da odlučuje o sebi”, rekla je.

Njeni strahovi odražavaju zabrinutost iznijetu u radu pod nazivom “Postepeno oduzimanje moći”, koji su napisali stručnjaci za AI sa različitih univerziteta i instituta.

Taj rad upozorava na rizike društva u kojem bi inteligentne mašine postepeno zamijenile ljude.

“Zamislite scenario u kojem svi ljudi praktično žive na smetlištima,” rekla je Katja Grejs, suosnivačica istraživačke grupe AI Impacts, opisujući svijet kojim upravlja vještačka inteligencija.

Ne bismo imali nikakvu političku ni ekonomsku moć, dodala je, niti bismo bili u stanju da razumijemo šta se zapravo dešava.

“Sve bi se odvijalo mnogo brže nego što bismo mi mogli da pratimo.”

Elmor vjeruje da bi razvoj vještačke inteligencije trebalo zaustaviti dok se ne isplanira kako da se upravlja rizicima koje ona nosi. Po njenom mišljenju, za to bi bio potreban međunarodni sporazum, ali razmatra i mogućnost preseljenja u Sakramento kako bi radila na zakonodavnim inicijativama koje bi omogućile pauzu u razvoju AI upravo u Kaliforniji, mjestu gdje se odvija većina istraživanja u ovoj oblasti.

Političari, međutim, idu u potpuno suprotnom smjeru. Prošlog mjeseca, administracija Donalda Trampa je najavila plan za deregulaciju istraživanja vještačke inteligencije.

U San Francisku, kompanije poput OpenAI Sema Altmana i Anthropic Darija Amodeija ubrzano napreduju. Mark Zakerberg je nedavno izjavio da je vještačka superinteligencija (ASI) “sada na vidiku”, te pokušava da preotme vrhunske stručnjake iz OpenAI-ja nudeći bonus od 100 miliona dolara za potpisivanje ugovora.

Elmor kaže da zagovornici vještačke inteligencije ne odbijaju pauzu zbog tehničkih ili političkih razloga. Više je riječ o stavu koji podsjeća na dogmatsko uvjerenje. Jedan pobornik AI-ja joj je, kaže, rekao da nikada neće umrijeti, jer vjeruje da će vještačka inteligencija ovjekovječiti njegovu svijest. Za neke ljude, odustajanje od razvoja AI znači i odustajanje od vječnog života.

“Među njima je prisutna snažna nada u raj”, kaže Elmor.

Čak i ako mnogi stručnjaci upozoravaju da je pakao daleko vjerovatniji.

Priredila: A. Š.