Kako virtuelne asistentkinje odgovaraju na uvrede i seksualne aluzije klijenata

U Brazilu je prošle godine bilo 105.000 prijavljenih slučajeva nasilja nad ženama - iako je pravi broj vjerovatno mnogo viši zbog neprijavljenih slučajeva

8518 pregleda 2 komentar(a)
Foto: Getty Images
Foto: Getty Images

Sve donedavno, mogli ste da zasipate Biu uvredama i da je nazivate pogrdnim imenima, a ona bi vam samo odgovorila jednim pitomim: „Ne razumem, možete li da ponovite?".

Upotrebite sa njom takav rečnik danas i virtuelna asistentkinja brazilske banke Bradesko mogla bi da vam odgovori jednim strožim:

„Te reči ne smete da koristite ni sa mnom ni sa bilo kim drugim."

Ili još jačim: „Za vas je to možda šala, za mene je nasilje."

Promena Bijinog tona usledila je pošto je Bradesko otkrio 95.000 poruka prošle godine upućenih sistemu veštačke inteligencije koje su sadržale uznemiravanje ili seksualno zlostavljanje.

Najblaže, koje je njihov tim za kontrolu kvaliteta pronašao pretragom na osnovu uvredljivih izraza koji su korišćeni, bili su zahtevi za golotinjom.

Ali drugi su bili toliko vulgarni da ih kompanija neće obelodanjivati.

„To su veoma vulgarne interakcije", kaže za BBC izvršna direktorka kompanije Glausimar Petikov.

„Ne mogu da se nateram da vam ih ponovim."

Bradesco

Iako nije najjasnije zašto bi neko koristio takav rečnik sa virtuelnom asistentkinjom, Petikov je opisala seksualne poruke kao „krajnje neprimerene" i oblik uznemiravanja „koji ne može da se pomeša ni sa čim drugim".

Da bi se izborili sa takvim napadima, Bijini softverski scenariji ažurirani su tako da nateraju mušterije da joj se obraćaju sa većim poštovanjem inače neće moći da nastavi rad.

Novi odgovori su „manje servilni i manje pasivni", a osmišljeni su tako da „edukuju" mušterije i podstaknu ih na „razmišljanje" o svojim seksističkim stavovima, rekla je Petikov.

„Odražava stvarni život"

Bradesko je reklamirao ovaj potez u TV spotovima u kojima su glumice delovale osnaženije kad robot promeni nastup.

Druge velike brazilske kompanije obećale su da će slediti njihov primer, u oblastima koje variraju od kozmetike i proizvodnje do komunalija i uslužnih delatnosti.

Lu, glasovna asistentkinja maloprodajnog giganta Magazin Luiza, ne samo da strogo odgovara na verbalne uvrede, već ima i „dugme za paniku" kako bi omogućila ženama da diskretno uzbune vlasti ako je u toku porodično nasilje.

Ona je postala čak i influenserka na društvenim mrežama, sa milionima pratilaca kojima redovno govori o rodnim pitanjima - uz pomoć tima pravih ljudi koji upravljaju njenim interakcijama na društvenim mrežama.

Magalu

Ali ne vide svi smisao u iskorišćavanju veštačke inteligencije za ovakvu vrstu borbe, budući da uznemiravanje nije usmereno ka osobama od krvi i mesa sa osećanjima.

„Zašto pravimo toliku halabuku oko glasovne asistentkinje koja nije čak ni ljudsko biće? Upravo zato što ovaj problem odražava pravi život", objašnjava Fabio Eon, koordinator društvenih nauka pri UNESKO-u za Brazil, koji je poveo kampanju za promene kod glasovnih asistentkinja kompanija.

Eon kaže da su verbalno uznemiravanje i seksualno zlostavljanje samo deo šireg problema.

U Brazilu je prošle godine bilo 105.000 prijavljenih slučajeva nasilja nad ženama - iako je pravi broj verovatno mnogo viši zbog neprijavljenih slučajeva.

Postoji izvesna korelacija između stvarnog sveta i digitalnog prostora, tvrdi Eon, koji ima veze sa ponašanjem i načinom na koji reagujemo.

„Od trenutka kad počnete da prihvatate takvo ponašanje onlajn, ono počne da se prenosi na stvaran život."

Getty Images

UNESKO-ov izveštaj iz 2019. godine kritikovao je kompanije koje prave digitalne asistente, u većini slučajeva sa ženskim glasovima, optuživši ih da učvršćuju rodne stereotipe.

Navodi se da primeri kao što su Eplova Siri ili Amazonova Aleksa deluju „tolerantno i povremeno čak prizivaju muška seksualna udvaranja".

Dodaje se da su kompanije „propustile da podstaknu ili izgrade model, a kamoli da insistiraju, na zdravoj komunikaciji o seksu ili seksualnim sadržajima."

Siri i Aleksa su u međuvremenu ažurirane, mada su se globalni tehnološki giganti odlučili za izostanak konfrontacije.

Siri sada reaguje na seksualne komentare prosto govoreći: „Neću odgovoriti na to."

Pre toga je njen odgovor na seksualnu uvredu bio: „Pocrvenela bih kad bih mogla."

„Možete li da zamislite koliko bi nadrealan bio jedan takav odgovor u stvarnom životu?", pita se Eon.

„Navike moraju da se menjaju"

Uprkos pokušajima da dođe do poboljšanja, predrasude u veštačkoj inteligenciji opstaju, upozorava Eon.

Dok nam Siri i Aleksa pomažu kod sitnijih kućnih zadataka kao što su puštanje muzike ili uključivanje svetla, sistem veštačke inteligencije brazilskih sudova, koji prosejava hiljade i hiljade sudskih dokumenata, zove se Viktor, ističe on.

Jedno rešenje koje razmatraju neke kompanije jeste upotreba rodno neodređenih glasova u njihovim sistemima.

Ali Petikov kaže da se ženski glasovi koriste u veštačkoj inteligenciji zbog njihove visine i modulacije, čiji je cilj da stvori prijatniju atmosferu za mušterije.

Bradesko, stoga, nema planove da zameni Biu niti da se pretvara da problem ne postoji, objašnjava ona.

„Ali navike moraju da se menjaju. Te interakcije su bukvalno odraz društva.

„Sad kad smo otkrili ovaj problem, posvećeni smo angažovanju protiv njega."

„Uskoro će vam se obratiti moja mama"

Getty Images

U širem kontekstu, kompanije razmatraju šta da rade kad mušterije zlostavljaju i seksualno uznemiravaju ljudske asistente.

Kampanja kompanije GS Kalteks enerdži iz Južne Koreje dospela je u vesti 2017. godine poto je pomogla da se smanji zlostavljanje radnica u kol centrima.

Pre nego što se njihov poziv prebaci na asistentkinju, mušterije bi čule snimak nekog člana porodice zaposlenih koji ih podseća da je osoba na vezi neko sa pravim životom i osećanjima.

Snimak je uključivao dečaka koji govori: „Moja mama, koju volim najviše na svetu, uskoro će vam pomoći."

Drugi, sa glasom muškarca, rekao bi: „Moja dobrodušna, marljiva ćerka će vam se uskoro javiti."

Adkva interaktiv, marketinška agencija koja stoji iza ove kampanje, kaže da su zaposleni u GS Kalteksu prijavili 54 odsto manji nivo stresa, a 25 odsto njih je tvrdilo da se oseća poštovanije.

Juhjun Park, generalni direktor Instituta DQ, koji se bavi digitalnom edukacijom, kaže da je sve veća potreba za svešću u svetu u kom su interakcije sve dehumanizovanije.

„Ljudi moraju da budu civilizovaniji.

„Imamo problem sa uznemiravanjem kad se ne srećemo sa drugima licem u lice.

„Čak i pre veštačke inteligencije, mi kao ljudi se nismo ophodili jedni prema drugima preterano lepo.

„Mi kao društvo, iako razgovaramo sa veštačkom inteligencijom, zajedno gradimo jedan čitav sistem i ako se ne budemo ponašali uljudno, postojaće reperkusije za to."


Pratite nas na Fejsbuku i Tviteru. Ako imate predlog teme za nas, javite se na bbcnasrpskom@bbc.co.uk

Bonus video: