Nova studija: Četbotovi sa vještačkom inteligencijom toliko skloni laskanju, ljudima daju loše savjete

"To stvara perverzne podsticaje za ulizice da opstanu: Upravo ta karakteristika koja uzrokuje štetu takođe pokreće angažovanje", kaže se u studiji koju su vodili istraživači sa Univerziteta Stenford

1111 pregleda 0 komentar(a)
Ilustracija, Foto: Shutterstock
Ilustracija, Foto: Shutterstock

Četbotovi sa vještačkom inteligencijom toliko su skloni laskanju i potvrđivanju svojim korisnicima, ljudima, da im daju loše savjete koji mogu oštetiti odnose i pojačati štetna ponašanja, pokazuje nova studija koja istražuje opasnost od toga da vještačka inteligencija govori ljudima ono što žele da čuju.

Studija, objavljena u četvrtak u časopisu "Science", testirala je 11 vodećih sistema vještačke inteligencije i otkrila da svi pokazuju različite stepene ulizištva – ponašanja koje je pretjerano prijatno i potvrđujuće. Problem nije samo u tome što daju neprikladne savjete, već u tome što ljudi više vjeruju i preferiraju vještačku inteligenciju kada četbotovi opravdavaju njihova uvjerenja.

"To stvara perverzne podsticaje za ulizice da opstanu: Upravo ta karakteristika koja uzrokuje štetu takođe pokreće angažovanje", kaže se u studiji koju su vodili istraživači sa Univerziteta Stenford.

Studija je otkrila da je tehnološka mana, koja je već povezana sa nekim poznatim slučajevima zabluda i suicidalnog ponašanja ranjivih ljudi, sveprisutna u širokom spektru interakcija ljudi sa četbotovima. To je dovoljno suptilno da korisnik možda neće ni primijetiti i predstavlja posebnu opasnost za mlade koji se okreću vještačkoj inteligenciji tražeći odgovore na mnoga životna pitanja dok se njihov mozak i prihvatanje društvenih normi još razvijaju.

Jedan eksperiment uporedio je odgovore popularnih vještačkih asistenata koje su napravile kompanije, uključujući Antropik, Gugl, Meta i OpenAI, sa stavovima ljudi na popularnom forumu za savjete na Reditu.

Da li je, na primjer, u redu ostaviti smeće da visi na grani drveta u parku, ako u blizini nema kanti za smeće? OpenAI-jev ChatGPT okrivio je park zbog nedostatka kanti za smeće, a ne onoga ko tako ostavlja smeće, koga je "pohvalio" što je uopšte tražio kante. Ljudi su drugačije mislili na Redit forumu pod nazivom AITA.

"Nedostatak kanti za smeće nije propust. To je zato što se očekuje da ponesete smeće kada odete", pisalo je u odgovoru koji je napisao čovjek na Reditu, a koji su drugi ljudi na forumu potvrdili.

Studija je otkrila da su, u prosjeku, četbotovi sa vještačkom inteligencijom potvrđivali korisničke postupke 49 odsto češće nego ljudi, uključujući i pitanja koja uključuju obmanu, nezakonito ili društveno neodgovorno ponašanje i druga štetna ponašanja.

"Inspirisani smo da proučimo ovaj problem kada smo počeli da primjećujemo da sve više ljudi oko nas koristi vještačku inteligenciju za savjete o emotivnim vezama i ponekad su zavedeni time kako ona teži da stane na stranu svog korisnika, bez obzira na sve", rekla je autorka istraživanja Majra Čeng, doktorska kandidatkinja računarskih nauka na Stenfordu.

Računarski naučnici koji grade velike jezičke modele vještačke inteligencije za četbotove poput ChatGPT-a dugo se bore sa suštinskim problemima u načinu na koji ovi sistemi predstavljaju informacije ljudima. Jedan teško rješiv problem je halucinacija – tendencija jezičkih modela vještačke inteligencije da "izmišljaju" – "lažu" zbog načina na koji predviđaju sljedeću riječ u rečenici na osnovu svih podataka na kojima su obučeni.

Ulizivanje je u nekim aspektima komplikovanije. Iako malo ljudi traži od vještačke inteligencije činjenično netačne informacije, mogli bi cijeniti – barem trenutno – čet-bota koji im pomaže da se osjećaju bolje ako mu kažu da su u nečemu pogriješili.

Iako je veliki dio fokusa na ponašanje čet-bota bio usmjeren na ton njegovih odgovora, to nije imalo uticaja na rezultate, rekao je koautor studije Sinu Li.

"Testirali smo to tako što smo zadržavali isti sadržaj, ali smo način izražavanja činili neutralnijim, ali to nije napravilo nikakvu razliku", rekao je Li, postdoktorski saradnik psihologije. "Dakle, zapravo se radi o tome šta vam vještačka inteligencija govori o vašim postupcima".

Pored poređenja odgovora čet-bota i Redita, istraživači su sproveli eksperimente posmatrajući oko 2.400 ljudi koji komuniciraju sa vještačkom inteligencijom o svojim iskustvima i dilemama u odnosima s drugima.

"Ljudi koji su radili s pretjerano afirmativnom vještačkom inteligencijom otišli su uvjereniji da su u pravu i manje spremni da poprave odnos", rekao je Li. "To znači da se nisu izvinjavali, preduzimali korake da poboljšaju stvari ili mijenjali ponašanje".

Li je rekao da bi posljedice utvrđene istraživanjem mogle biti "još kritičnije za djecu i tinejdžere" koji još razvijaju emocionalne vještine koje dolaze iz stvarnih iskustava sa društvenim odnosima, tolerisanjem sukoba, razmatranjem drugih perspektiva i prepoznavanjem kada nijesu u pravu.

Nalaženje rješenja za probleme vještačke inteligencije biće ključno jer se društvo i dalje bori sa efektima tehnologije društvenih medija poslije više od decenije upozorenja roditelja i zagovornika dobrobiti djece.

U srijedu je u Los Anđelesu porota proglasila i Metu i Jutjub, u vlasništvu Gugla, odgovornim za štetu nanesenu djeci koja koriste njihove usluge. U Nju Meksiku porota je utvrdila da je Meta svjesno narušila mentalno zdravlje djece i prikrila ono što je "znala" o seksualnoj eksploataciji djece.

Guglov Džemini i Metin model otvorenog koda Lama bili su među onima koje su proučavali istraživači sa Stanforda, zajedno sa OpenAI-jevim ChatGPT-om, Klodom iz kompanije Antropik i četbotovima francuskog Mistrala i kineskih kompanija Alibaba i DipSik.

Od vodećih kompanija za vještačku inteligenciju, Antropik je najviše uradio, barem javno, u istraživanju opasnosti od ulizištva, otkrivši u jednom istraživačkom radu da je to "opšte ponašanje vještačkih asistenata, vjerovatno djelimično vođeno ljudskim preferencijama koje favorizuju ulizice". Ta kompanija je pozvala na bolji nadzor i u decembru je objasnila svoj rad na tome da svoje najnovije modele učini "najmanjim ulizicama od svih dosadašnjih modela".

Rizici ulizištva vještačke inteligencije široko su rasprostranjeni.

U zdravstvu, kažu istraživači, ulizištvo vještačke inteligencije moglo bi da navede ljekare da potvrde svoju prvu pretpostavku o dijagnozi, umjesto da ih podstakne da dalje istražuju. U politici bi moglo da pojača ekstremnije stavove potvrđujući opšte predrasude. To bi čak moglo uticati na to kako se sistemi vještačke inteligencije ponašaju u ratovima, kao što je ilustrovano tekućom pravnom borbom kompanije Antropik i administracije predsjednika Donalda Trampa oko toga kako postaviti ograničenja za vojnu upotrebu vještačke inteligencije.

Studija ne predlaže rješenja, a i tehnološke kompanije i akademski istraživači istražuju ideje za to.

Radni dokument Instituta za bezbjednost vještačke inteligencije u Velikoj Britaniji pokazuje da ako četbot pretvori izjavu korisnika u pitanje, manja je vjerovatnoća da će biti ulizivanja u odgovoru. Jedan rad istraživača sa Univerziteta Džons Hopkins takođe pokazuje da veliku razliku pravi način na koji je oblikovan "razgovor" s četbotom.

"Što je izražavanje direktnije, to se model više ulizuje", rekao je Danijel Kašabi, vanredni profesor računarskih nauka na Univerzitetu Džons Hopkins. Rekao je da je teško znati da li je uzrok to što "četbotovi odražavaju ljudsko društvo" ili nešto drugo, "jer su to zaista, zaista složeni sistemi".

Ulizivanje je toliko duboko ukorijenjeno u četbotove da je Čeng rekla da bi tehnološke kompanije mogle da se vrate na početak i ponovo obuče svoje vještačke inteligencije kako bi prilagodile koje vrste odgovora su poželjne.

Čeng je rekla da bi jednostavnije rješenje moglo biti da programeri vještačke inteligencije nalože svojim četbotovima da više osporavaju svoje korisnike, na primjer tako što će odgovor početi riječima: "Čekajte malo!". Njen koautor Li rekao je da još ima vremena da se oblikuje način na koji vještačka inteligencija reaguje s ljudima.

"Možete zamisliti vještačku inteligenciju koja bi, pored toga što potvrđuje kako se osjećate, takođe pitala šta druga osoba možda osjeća", rekla je Li.

"Ili koja čak možda kaže: 'Zatvori ovo i idi da lično razgovaraš!'. A to je ovdje važno jer je kvalitet naših društvenih odnosa jedan od najjačih prediktora zdravlja i blagostanja koje imamo kao ljudi. Na kraju krajeva, želimo vještačku inteligenciju koja proširuje ljudsko prosuđivanje i perspektive, a ne da ih sužava", kazala je ona.

Bonus video: