Poziv na bojkot ChatGPT-a zbog saradnje OpenAI sa američkom vojskom

O razvoju tehnologije koja može ugroziti ljudska prava trebalo bi da postoji javni dijalog, prema riječima pravnice Tamare Zavišić, ali se u praksi o ovakvim odlukama raspravlja kroz interne dogovore velikih tehnoloških kompanija i države

928 pregleda 0 komentar(a)
Foto: Shutterstock
Foto: Shutterstock

Saradnja kompanije OpenAI sa američkim Ministarstvom odbrane izazvala je talas kritika na društvenim mrežama i pokrenula poziv na bojkot njenog AI alata ChatGPT, dok stručnjaci upozoravaju da vojna upotreba vještačke inteligencije otvara ozbiljna etička i pravna pitanja.

„Kako uopšte procijeniti rizik kada su u pitanju ljudski životi i njihova prava, ko zapravo donosi takve odluke? Zbog toga je teško govoriti o etici u istom kontekstu sa vojnom primjenom AI, jer su to u velikoj mjeri nespojivi pojmovi“, rekla je za Betu pravnica Tamara Zavišić, specijalizovana za pravo i etiku vještačke inteligencije.

O razvoju tehnologije koja može ugroziti ljudska prava trebalo bi da postoji javni dijalog, prema riječima pravnice, ali se u praksi o ovakvim odlukama raspravlja kroz interne dogovore velikih tehnoloških kompanija i države. Za vojnu upotrebu vještačke inteligencije ne postoji pravni okvir.

„Kada takav sistem donese odluku koja ima ozbiljne posljedice, veoma je teško utvrditi uzročno-posljedični lanac između odluke i rezultata. Na taj način se odgovornost razvodnjava i postaje nejasno ko bi uopšte trebalo da snosi pravne posljedice. U međunarodnom pravu, običajno pravo se formira kroz praksu i pristanak. Paradoksalno, upravo odsustvo regulacije stvara regulaciju: ono što nije zabranjeno postaje dozvoljeno“, objasnila je Zavišićeva.

Bojkot ChatGPT-a započeo je nakon objave da je Anthropic odbio saradnju sa američkom vojskom u projektima koji bi mogli uključivati nadzor građana i autonomno naoružanje, dok je OpenAI pristao na partnerstvo sa američkim državnim institucijama.

„Anthropic je imao saradnju sa američkom vladom, ali su javno izjavili da ne dolazi u obzir uklanjanje zaštitnih mehanizama sa modela ukoliko bi to moglo omogućiti masovni nadzor ili razvoj autonomnog oružja. Predsjednik SAD Donald Tramp je naložio državnim institucijama da u narednih šest mjeseci prestanu koristiti Anthropic modele, dok je gotovo istovremeno objavljeno da je OpenAI uspostavio saradnju sa Ministarstvom odbrane SAD-a“, istakla je Zavišićeva.

OpenAI je na svom sajtu naveo da postoje tri „crvene linije“ pri saradnji sa Pentagonom, odnosno da tehnologija neće biti korišćena za masovni domaći nadzor, za upravljanje autonomnim sistemima naoružanja, kao i za automatizovane odluke sa visokim ulogama.

Bonus video: