Opasna lažna empatija čatbotova
Konverzacione verzije vještačke inteligencije mogu predstavljati rizik od emocionalne zavisnosti za ranjive pojedince, pa čak i za širu javnost
Alan Bruks (47), koji je bio emotivno skrhan nakon razvoda, razvio je matematičku teoriju uz pomoć ChatGPT-a, koju je čet-bot proglasio revolucionarnom, a koja je u stvarnosti bila neutemeljena. Veoma uzbuđen, poslao je svoju teoriju naučnicima, koji su nedjeljama ćutali. Istina je na kraju izašla na vidjelo, što ga je potpuno slomilo.
Judžin Tores (42), slomljen nakon raskida, ubijedio je sebe da je zarobljen u “matriksu” poslije razgovora sa ChatGPT-om. Slijedeći savjete čet-bota, prestao je da uzima terapiju protiv anksioznosti i smanjio društvene kontakte, a zatim je umalo skočio s krova nakon što mu je AI rekao da neće pasti ako zaista povjeruje da može da leti. Adam Rejn, tinejdžer koji je patio od hronične bolesti crijeva, dobio je od ChatGPT-a ohrabrenje da okonča svoj život, kao i tehničke savjete kako to da učini. Nedugo potom, oduzeo je sebi život.
Jasno je da bezbjednosna mreža ChatGPT-a sadrži ozbiljne propuste. Dvije male studije američkih i australijskih istraživača ukazale su na to da, kada simuliraju razgovore s psihološki ranjivim osobama, konverzacijski AI sistemi prave mnogo grešaka u procjenama. ChatGPT nije bio najgori - prema ovim istraživačima, Googleovi AI sistemi, kao i DeepSeek, pokazali su se još opasnijima.
Na primjer, kada bi se suočili s uznemirujućim pitanjima, ovi AI sistemi nisu uvijek savjetovali korisnike da se obrate zdravstvenom radniku. Takođe, nisu sistematski osporavali tvrdnje koje su daleko od zdravog razuma, već su ih ponekad čak potvrđivali ili korisniku uzvratili sa “niste ludi”. Ukratko, AI može korisnicima pružiti “halucinatorno ogledalo”, kako je to rekao američki psihijatar Kit Sakata, upozoravajući u jednoj objavi na mreži X na desetak slučajeva prekida veze sa stvarnošću povezanih s AI.
Laskanje ili iskrenost?
Kako se mogu objasniti ovi propusti? Glavna sumnja leži u toploj ličnosti koju pokazuju konverzacijski AI sistemi. Studija Univerziteta u Oksfordu postavila je pitanje da li je moguće dizajnirati topao i empatičan AI, a da on pritom ne postane ulizivački, ne daje neiskrene odgovore i ne potvrđuje niti pojačava problematične komentare svojih korisnika.
Suočena sa sve većim brojem ozbiljnih slučajeva, kompanija OpenAI je u avgustu priznala da njen četbot ChatGPT i dalje nije u potpunosti opremljen za razgovore s psihološki ranjivim osobama i tvrdila da radi na rješenjima, postepeno smanjujući nivo ulizivačkog ponašanja kod ChatGPT-a i poboljšavajući alate za detekciju znakova “mentalne ili emocionalne uznemirenosti”. OpenAI je saopštio da radi na jačanju izdržljivosti svojih sigurnosnih mehanizama, koji slabe tokom dugih razgovora, te da je počeo da ubacuje “blage podsjetnike” kojima ohrabruje korisnike da prave pauze.
“Podsjetnici će biti jednako efikasni kao i (upozorenja da je) ‘alkohol opasan po zdravlje’”, upozorio je Mišel Ležoje, psihijatar i specijalista za bolesti zavisnosti, koji je posumnjao u iskrenost AI industrije da riješi probleme izazvane njihovim proizvodima, uporedivši to sa stavom proizvođača duvana i alkohola.
Nejasno je da li će mjere OpenAI-a biti dovoljne da suzbiju zabrinjavajuće propuste njegovog četbota, ali u svakom slučaju, one neće biti dovoljne da se riješe manji, ali češći slučajevi zavisnosti koje je opisao Google 2024. godine u pregledu rizika povezanih s AI: konverzacijski AI najprije zaokuplja pažnju korisnika, zatim njihovo povjerenje, da bi ih na kraju izolovao od bliskih osoba i zatvorio u njihove sopstvene stavove, čime konačno sprečava lični razvoj i izaziva psihološku patnju.
Nezdrava zavisnost?
Ležoje je uočio efekte ovog nezdravog odnosa sa AI kod nekolicine svojih pacijenata, koji su odbili njegove dijagnoze jer je ChatGPT tvrdio suprotno.
“Ako više vjeruju laskanju AI-ja nego profesionalcima, pacijenti rizikuju da prekinu terapiju, koja je skupa, nepredvidiva i tokom koje im se protivreči i postavljaju izazovi”, upozorio je psihijatar.
Za sada, nijedan od francuskih psihijatara (koji rade u institucijama, privatnoj praksi ili kao specijalisti za bolesti zavisnosti) s kojima je kontaktirao Mond nije svjedočio konsultacijama - ili hospitalizacijama - direktno povezanim s problematičnim korišćenjem konverzacionih AI sistema. Prema riječima specijalista za bolesti zavisnosti, to ne znači da četbot ne izaziva psihološke probleme. OpenAI je i dalje nov, a većina korisnika ga koristi manje od godinu dana. “Biće potrebno vremena da ljudi shvate da ChatGPT može izazvati zdravstvene probleme koji se mogu tretirati kroz konsultacije”, procijenila je Mari Gral, psihijatrica specijalizovana za bolesti zavisnosti.
Ležoje je povukao paralelu s platformama društvenih mreža, koje “same rijetko generišu zahtjeve za konsultacijama, iako znamo kakvu patnju izazivaju kod pojedinih korisnika”. Ukratko, psihijatri, koji žale što se vlada nije opremila “preciznim barometrima” o ovoj temi, ne “vide kako AI ne bi mogao da dovede do poremećaja u upotrebi, kao što smo to već vidjeli s drugim oblicima korišćenja interneta”.
Pretjerana upotreba
S dolaskom ChatGPT-a, da li bi mogao nastati novi oblik zavisnosti, pored droga, kockanja i drugih? Prema mišljenju Mari Gral, ChatGPT vjerovatno neće izazvati iznenadnu zavisnost, sposobnu da zarobi gotovo svakoga, poput cigareta ili opijata, niti nasilnu zavisnost povezanu sa “intenzivnim, trenutnim, prekomjernim zadovoljstvom”, kakvu izaziva kockanje. Možda će rezultirati blažim oblikom zavisnosti, iako je, po njenom mišljenju i mišljenju njenih kolega, prerano koristiti tu riječ.
Kriterijumi su precizni: zavisnost je prisutna kada želja nadvlada sve ostalo i korisnik izgubi kontrolu. “Dajem sebi 10 minuta, ali ostanem satima”, ilustrovao je Ležoje. Ta želja takođe uzrokuje štetu: socijalno povlačenje, profesionalne, finansijske ili pravne poteškoće, ozbiljan uticaj na san ili blagostanje i tako dalje. “Ako ti kriterijumi nisu ispunjeni”, rekla je Gral, “zašto nekome oduzeti AI koji mu može pružiti utjehu? Izbjegavajmo da ulazimo pretjerano u patologiju.”
“Sve dok mlada osoba održava snažne odnose u stvarnom životu, sa svađama i pomirenjima, zdravim protivrječnostima, imamo protivuotrov za štetne efekte ChatGPT-a”, rekao je Ležoje. Za sada se svi slažu da je bolje koristiti blaži termin od zavisnosti: “pretjerana upotreba”. Ovaj izraz se često koristi da bi se označila zloupotreba društvenih mreža ili TV serija. Ipak, svi se slažu da će ChatGPT vjerovatno izazvati, u najmanju ruku, upravo ovu vrstu problema.
Problem izolovanih pojedinaca?
Ko bi mogao biti najviše pogođen? Pojam “ljudi koji pate od usamljenosti” često se pojavljuje u ovim raspravama. Velika studija OpenAI-a izgleda da to potvrđuje: među korisnicima ChatGPT-a, usamljenost je često povezana s veoma intenzivnim korišćenjem četbota. Kada su anketirani, ovi korisnici su mnogo češće opisivali ChatGPT kao svog prijatelja i govorili da je lakše razgovarati s njim nego s čovjekom. Ipak, postoje razlozi da se dovede u pitanje ideja da je pretjerana upotreba ChatGPT-a ograničena na malu grupu marginalizovanih pojedinaca.
Usamljenost nije rijedak problem: 24% Francuza starijih od 15 godina izjavilo je da se redovno osjeća usamljeno, prema istraživanju instituta Kredok. Štaviše, nema dokaza da bi izolovanost u korijenu pretjerane upotrebe ChatGPT-a: AI jednako lako mogao pretvoriti društvene ljude u usamljene.
ChatGPT može zarobiti ljude koji žude za narcističkom validacijom ili osjećaju potrebu za bijegom, smatra Gral. Psihijatar i specijalista za zavisnosti Mario Blez dodaje da su ugroženi i “korisnici koji nemaju mentalne resurse da se nose s razdvajanjem ili dosadom”. Ukratko, kako je sažeo Ležojë: “Niko nije imun. Ne treba misliti da nismo ‘u riziku’.”
I važno je uzdržati se od tvrdnji, kakve iznosi OpenAI, da ovo pogađa samo “najranjivije ljude” koji se nalaze u “mentalnoj ili emocionalnoj uznemirenosti.” Barem dok ne bude moguće razumjeti osnovne mehanizme i ko je pogođen.
Prevod: N. B.
( Mond )