Vještačka inteligencija: Programirana diskriminacija?

Čini se da vještačka inteligencija ima potencijal da automatski diskriminiše. Povjerenica njemačke vlade za borbu protiv diskriminacije pokušava da tome stane na put i upravo je predstavila jedan važan izvještaj

1127 pregleda 0 komentar(a)
Ilustracija, Foto: Shutterstock
Ilustracija, Foto: Shutterstock

„Vještačka inteligencija olakšava mnoge stvari, nažalost i diskriminaciju“, kaže Ferda Ataman, nezavisna povjerenica njemačke vlade za borbu protiv diskriminacije. Ona je u Berlinu predstavila izvještaj stručnjaka koji je naručila s ciljem bolje zaštite ljudi od moguće diskriminacije od strane samoučećih algoritamskih sistema odlučivanja (ADM).

Skraćenica ADM dolazi iz engleskog: „algorithmic decision making systems“. To su mašine ili softver koji na osnovu podataka izračunavaju broj na osnovu kojeg se može donijeti odluka.

Ferda Ataman daje tipične primjere upotrebe te vrste vještačke inteligencije: procesi apliciranja, krediti kod banaka, osiguravajuće kompanije ili dodjela državnih transfera kao što je socijalna pomoć.

Softver može da reprodukuje predrasude i stereotipe

„Tu se izjave o vjerovatnoći prave na osnovu opštih karakteristika grupe“, kaže Ataman opisujući kako mašine rade, i upozorava: „Ono što se na prvi pogled čini objektivnim može automatski da reprodukuje predrasude i stereotipe. Ne smijemo potcijeniti opasnosti digitalne diskriminacije“, kaže povjerenica njemačke vlade.

Više od 20.000 ljudi u Holandiji iskusilo je 2019. do čega može da dovede pogrešna upotreba navodno nepotkupljive tehnologije: optuženi su za prevaru države pod prijetnjom visokih kazni, a od njih je zatraženo da vrate dječiji dodatak unazad nekoliko godina. Radilo se o desetinama hiljada eura po porodici.

Pogođeni su bili pre svega ljudi migrantskog porijekla, odnosno oni s dvojnim državljanstvom. Ispostavilo se da su ljudi pogrešno optuženi, te da je to bila greška za koju je djelimično bio odgovoran algoritam u softveru.

Podaci i funkcionalnost sistema su „crna kutija“

Da bi se spriječili takvi slučajevi, Ferda Ataman zahtijeva od kompanija više transparentnosti. Oni koji koriste vještačku inteligenciju ubuduće bi trebalo bi da imaju uvid u korišćene podatke i kako sistem funkcioniše.

U izvještaju koji su napisali ekspertkinja za pravo Indra Spiker i njen kolega Emanuel V. Tufaj, karakter sistema zasnovanih na vještačkoj inteligenciji opisuje se kao „crna kutija“. Time hoće da kažu da je pogođenima praktično nemoguće da pronađu uzroke diskriminacije.

„Specifičan fenomen upotrebe ADM-sistema je da njihov potencijal za diskriminaciju može biti dio samog sistema“, navodi se u izvještaju.

Uzrok diskriminacije može biti nevažan, neispravan, neprikladan za predviđenu svrhu ili iskrivljen skup podataka.

Karakteristika potencijalne diskriminacije: poštanski broj

Šta se pod tim podrazumijeva, u izvještaju je ilustrovano tipičnim primjerima: „Poštanski broj, koji sam po sebi nije diskriminatoran, postaje posrednik za zabranjenu diskriminaciju porijekla, jer – mnogi migranti žive u određenom dijelu grada, iz istorijskih razloga.“

To može imati negativne posljedice po ljude koji tamo žive, jer se na njih gleda kao na opšti finansijski rizik kada se radi o kreditima. Računa se, naime, da oni neće moći da otplate svoje dugove. Kao rezultat toga, oni često uopšte i ne dobijaju kredite.

Stručnjaci tu praksu pripisivanja karakteristika nekome uz pomoć statistike, a na osnovu stvarnih ili pretpostavljenih prosečnih vrijednosti neke grupe, nazivaju: „diskriminacija kroz statistiku“.

Povjerenica zahtijeva Arbitražni odbor

Za takve i druge slučajeve, nezavisna povjerenica njemačke vlade za borbu protiv diskriminacije pri svojoj instituciji želi da osnuje Arbitražni odbor. Osim toga, Ferda Ataman zahtijeva da se Opšti zakon o jednakom tretmanu (AGG) dopuni obaveznim arbitražnim postupkom.

Da bi ilustrovala neophodnost brzog djelovanja, ona navodi primjere iz drugih zemalja, slične onom iz Holandije.

SAD: pogrešni programirani algoritmi na kreditnim karticama „Epl“ sistematski su stavljali žene u nepovoljniji položaj pri dodjeli kredita, odnosno odlaska u minus.

Australija: nakon greške u sistemu podržanom vještačkom inteligencijom, stotine hiljada ljudi su dobili zahtjev da vrate socijalnu pomoć na koju su imali pravo.

„Digitalizacija ne smije da postane noćna mora“

Zaključak koji Ferde Ataman izvlači iz izvještaja stručnjaka glasi: „Digitalizacija pripada budućnosti, ali ne smije da postane noćna mora. Ljudi moraju biti u stanju da vjeruju da neće biti diskriminisani od strane veštačke inteligencije“. A ako se to ipak dogodi, ljudi takođe moraju da vjeruju da će moći da se brane.

Zato su potrebna jasna i razumljiva pravila za regulisanje vještačke inteligencije, naglašava nezavisna povjerenica njemačke vlade za borbu protiv diskriminacije.

Bonus video: