Evropski parlament uvodi pravila za vještačku inteligenciju

"Veoma rizični sistemi“, oni koji neprihvatljivo analiziraju i predviđaju društveno ponašanje ljudi, trebali bi da budu zabranjeni. „Rizični sistemi“ trebali bi da budu podvrgnuti pravilima i ograničenjima. „Jednostavne primene“, među koje bi sigurno spadao i generator tekstova ChatGPT, ne bi trebalo da budu pretjerano ograničavane.

3459 pregleda 0 komentar(a)
Foto: Shutterstock
Foto: Shutterstock

Evropska unija prvi put namjerava da reguliše primjenu vještačke inteligencije, dakle računarskih programa koji imaju sposobnost da uče. Evropski parlament od srijede 14. juna počinje u Strazburu raspravu o odgovarajućem predlogu zakona.

Šef kalifornijske firme OpenAI, koja je na tržište izbacila generator tekstova ChatGPT, prilikom posjete Njemačkoj upozorio je na opasnost od suviše velike regulacije – ali svoju prijetnju da ChatGPT zbog toga možda neće biti dostupan u Evropi, Sem Altman u međuvremenu je povukao. Pravila za vještačku inteligenciju su u načelu dobra, kaže Altman, ali „potrebna nam je jasnoću“, dodao je.

Sem Altman je uticajan na sceni koja se bavi vještačkom inteligencijom, a u Berlinu ga je primio i savezni kancelar Olaf Šolc.

Neće biti zabrana, uspostavljaju se evropski standardi

To lobiranje na najvišem nivou firme OpenAI, odnosno matičnog koncerna Majkrosoft, ne zabrinjava poslanika u Evropskom parlamentu Renea Repasija. Evropsko tržište je, kaže, suviše privlačno za ponuđače vještačke inteligencije da bi ga zaobišli.

„Onaj ko ovdje želi da prodaje svoju vještačku inteligenciju, mora da se ravna prema našim standardima“, kaže Repasi koji tu temu prati za evropske socijaldemokrate.

I američki Kongres nastoji da uvede pravila za umjetnu inteligenciju. Evropski poslanici su u kontaktu s američkim kolegama, kaže Repasi.

„Na kraju želimo da stvorimo standarde koji imaju smisla, a ne da oni budu u međusobnoj konkurenciji.“

Američki tehnološki koncerni imaju mnogo kapitala, nevjerovatne količine podataka i jedinstven povlašćeni položaj koji bi htieli da sačuvaju, naglašava Repasi. Ali, to ne znači da bi pravila u Evropi sprečavala inventivne start-apove da dalje razvijaju vještačku inteligenciju.

„To što je toliko mnogo tehnoloških divova u SAD prije ima veze s lošim tržištima na kojima djeluju monopolisti, a manje s pitanjem gdje postoje veće inovacije.“

Upozorenja na opasnosti od vještačke inteligencije

Jedan od tvoraca vještačke inteligencije, bivši saradnik Gugla Džefri Hinton, nedavno je u intervjuima upozoravao na opasnosti od njegovog sopstvenog proizvoda. Generativna vještačka inteligencija mogla bi uskoro možda da bude inteligentnija od ljudi koji su je stvorili, rekao je. Još se ne mogu sagledati promjene koje ona donosi na tržište rada. Čak i ljudi koji razvijaju te sisteme i vodeći ljudi Majkosofta ili Gugla priznaju da ni oni sami više ne znaju kako tačno funkcionišu primjene vještačke inteligencije. U jednom otvorenom pismu naučnici i preduzetnici, među kojima je i vlasnik Titera Ilon Mask, predložili da se do kraja godine napravi pauza kako bi se postavile granice razvoja vještačke inteligencije.

Evropska unija reaguje novim zakonom o kojemu se raspravlja već dvije godine. On u načelu predviđa da se primjena vještačke inteligencije podijeli u različite razrede rizika.

„Veoma rizični sistemi“, oni koji neprihvatljivo analiziraju i predviđaju društveno ponašanje ljudi, trebali bi da budu zabranjeni. „Rizični sistemi“ trebali bi da budu podvrgnuti pravilima i ograničenjima. „Jednostavne primene“, među koje bi sigurno spadao i generator tekstova ChatGPT, ne bi trebalo da budu pretjerano ograničavane.

Ali, usluge koje budu stvorene uz pomoć vještačke inteligencije trebalo bi da budu posebno označene. Poslanik u Evropskom parlamentu Rene Repasi kao primjer navodi zahtjev za potrošački kredit. Njega već danas često provjeravaju automatski programi.

„Ako provjera ispadne negativna, mi želimo da može da se zahtijeva da sve još jednom provjeri čovjek. Ali, za to je potrebno znati da je čovjek prije toga razgovarao s vještačkom inteligencijom.“

Zakon o vještačkoj inteligenciji za dvije godine

Zakon o vještačkoj inteligenciji u Evropskoj uniji mogao bi da stupi na snagu početkom 2025. godine. Nije potrebno samo da ga usvoji Evropski parlament, nego i da ga prihvati svih 27 zemalja-članica.

Programi vještačke inteligencije kao što je ChatGPT, prije dvije godine još nisu bili na tržištu, a mogli bi da budu veoma unaprijeđeni dok u Evropskoj uniji stupi na snagu zakon, kaže poslanik u Evropskom parlamentu Aksel Fos.

„Razvoj je toliko brz da mnogo toga uopšte više neće odgovarati vrijeme kad zakon bude stupio na snagu“, izjavio je Fos u razgovoru za DW još u aprilu.

On se za demohrišćansku poslaničku grupu već godinama bavi vještačkom inteligencijom i jedan je od vodećih ljudi koji izrađuju Zakon o vještačkoj inteligenciji EU.

Fos upozorava na opasnost od strogih zabrana.

„Zapravo bismo – s obzirom na konkurentnost i s obzirom na to da već zaostajemo – trebalo da imamo više pionirskog duha, kako bismo se intenzivnije bavili vještačkom inteligencijom. Ali, ono što se čuje od većine u evropskom parlamentu jesu strahovi i brige, kao i pokušaji da se sve isključi.“ Povjerenici za zaštitu podataka-zemalja članica zahtijevaju nezavisni nadzor primjena vještačke inteligencije i dalje prilagođavanje propisa o zaštiti podataka.

Zakon o vještačkoj inteligenciji trebao bi da bude fleksibilan, smatra socijaldemokratski poslanik Rene Repasi. Pitanje šta je kod vještačke inteligencije veoma rizično ili manje rizično, ne bi trebalo da bude regulisano u tekstu zakona, nego u dodatku. To onda, kaže, može prema potrebi veoma brzo da se promijeni i prilagodi tehnološkom razvoju.

„Tehnički pregled“ za vještačku inteligenciju

Firma koje bi htjele da u Evropi prodaju rizične primjene vještačke inteligencije, morale bi, prema predlogu zakona, da ispune stroge uslove i uspostave menadžment rizika za svoje proizvode. Podaci uz pomoć kojih se treniraju programi vještačke inteligencije takođe bi morali da budu provjereni. Ljudi koji na raspolaganje stavljaju podatke morali bi da budu obaviješteni u koju svrhu se oni koriste.

Italijanska ustanova za zaštitu podataka u aprilu je na neko vrijeme zabranila Chat GPT zbog nedostataka u oblasti zaštite podataka i ponovo ga dozvolila tek nakon što je firma OpenAI izvela neke promjene.

U Njemačkoj su Udruženje za tehnički pregled (TÜV), Savezna ustanova za bezbjednost informacione tehnologije i Fraunhoferov institut za inteligentne analitičke i informatičke sisteme razmišljali o uvođenju certifikata za programe vještačke inteligencije. Slično kao kod automobila koji mora da prođe tehnički pregled, i vještačkoj inteligenciji bi nezavisni stručnjaci trebalo da izdaju certifikat. Kod primjena kao što je autonomna vožnja automobila ili roboti u medicini koji vrše operacije, potrebno je veliko povjerenje u vještačku inteligenciju, a to bi moglo da se postigne izdavanjem certifikata.

Bonus video: