Milan Gnjatović


HOME RESEARCH PUBLICATIONS STUDENTS MEDIA BIO CV CONTACT

Etika i veštačka inteligencija

Milan Gnjatović
(Ovaj tekst je objavljen u magazinu Planeta br. 82, januar-februar 2018., pod nazivom „Opasni ’samovoljni’ roboti“.)

U maju 2018., na snagu treba da stupi Opšta regulativa Evropske unije o zaštiti podataka. Ovaj zakonski akt, koji najavljuju kao najvažniju promenu u zaštiti privatnosti podataka u poslednje dve decenije, već neko vreme održava kontroverzu u javnosti. Jedan od razloga je taj što se njime priznaje da dizajn algoritama veštačke inteligencije nije samo tehničko pitanje, već i etičko.

Zvuči skoro paradoksalno: u savremenim istraživanjima i primenama veštačke inteligencije postoji metodološki problem, koji su naučnici, manje ili više svesno, ignorisali, ali ga je evropska birokratija, makar i posredno, dovela u fokus pažnje šire javnosti. Ne, ovo nije teorija zavere.

Vaše pravo na objašnjenje

Nije tajna da se računarski algoritmi danas intenzivno koriste za profilisanje ljudi (čitajte: vas), tj., za automatizovanu obradu privatnih podataka da bi se procenili lični aspekti poput ekonomskog stanja, zdravlja, sklonosti, interesovanja, ponašanja, itd. Ovo se može objasniti vrlo plastično: softveru, u čije funkcionisanje nemate uvid, se može prepustiti da samostalno, bez ljudske intervencije, donese odluku da li će vam se odobriti novčani kredit, na osnovu analize neke baze podataka u koju takođe nemate uvid. Čak i ako verujete da je algoritam na kome se zasniva softver objektivan, a nemate razloga da apriori verujete u to, podaci koji su sakupljeni o vama i drugim licima u bazi podataka i dalje mogu da budu pristrasni ili nekorektni.

Opšta regulativa Evropske unije o zaštiti podataka je značajna, jer zabranjuje, osim u izuzetnim slučajevima, donošenje odluka zasnovano samo na automatizovanoj obradi podataka, i ističe pravo na „ljudsku intervenciju“. Zabrana uključuje i profilisanje ljudi koje dovodi do diskriminacije na osnovu specifičnih kategorija ličnih podataka. Ali sa naučne strane, posebno je interesantna činjenica da regulativa predviđa pravo ljudi da dobiju objašnjenje rezultata algoritamskog odlučivanja. Ovo je ozbiljni izazov za naučnike, jer moderni sistemi tzv. veštačke inteligencije neretko funkcionišu kao crne kutije tj., baziraju se na algoritmima čiji rezultati, čak i kad su precizni, nisu interpretabilni. Drugim rečima, čak ni autori programa ne mogu da objasne kako je program došao do rezultata.

Malo teorije i puno podataka

Zaista, osnovni princip savremenog pristupa veštačkoj inteligenciji se može opisati sloganom „malo teorije i puno podataka“. Nije nefer reći da se ovaj pristup zasniva na simulaciji inteligentnog ponašanja bez suštinskog razumevanja fenomena inteligencije. Drugim rečima, programerima je omogućeno da primenjuju automatizovane analitičke metode na velike količine podataka u pokušaju da empirijski otkriju pravila i šablone koji su implicitno prisutni u podacima, bez potrebe da suštinski razumeju fenomen koji modeluju softverom. Koliko je gornji slogan odgovarajući može se videti i kroz sledeće primere. Da biste napravili softver za automatsko prepoznavanje govora na nekom jeziku, nema potrebe da uopšte znate dati jezik. Jedino što vam je potrebno je reprezentativni i prikladno označeni jezički korpus koji sadrži snimke govora na datom jeziku. Slično, kad Gugl ispravi slovnu grešku u vašem unosu ili pretpostavi kraj vašeg unosa, to ne znači da programeri koji stoje iza ovih funkcionalnosti znaju srpski jezik, već da poseduju dovoljno veliku bazu tekstova na srpskom jeziku. Primeri su, naravno, mnogobrojni.

Zakonsko insistiranje na pravima na „ljudsku intervenciju“ i „objašnjenju“ je izazvalo različite reakcije. Imajući u vidu da su programeri trenutno oslobođeni obaveze da razumeju problem koji rešavaju, opšta popularnost trenutno dominantnog pristupa nije iznenađujuća. Jedno od oponentnih stanovišta je da je pravno regulisanje algoritama preuranjeno, i da će ovakva regulativa usporiti razvoj veštačke inteligencije. Ali dok se uljuljkujemo predviđanjima o autonomnim vozilima i robotskim dadiljama, trenutno stanje stvari nas ipak upućuje na to da ove zamerke nisu opravdane, jer pravna regulativa već uveliko kasni za tehničkim razvojem.

Smrtonosni autonomni roboti

Ovo postaje još očiglednije ukoliko se u vidu ima rastući trend militarizacije veštačke inteligencije. U poslednjoj deceniji, u vojnoj industriji je aktuelan trend razvoja smrtonosnih autonomnih robota. Ovaj naziv je oslobođen svakog eufemizma – radi se o računarski kontrolisanim oružjima koja, kad se aktiviraju, mogu samostalno da donesu odluku o izboru mete i primeni smrtonosne sile. Autonomnost ovih oružja znači da su predviđena da se koriste u nestrukturiranim i dinamički promenljivim okruženjima, poput oružanih sukoba.

Da upotreba smrtonosnih autonomnih robota nije pravno regulisana se jasno vidi na pitanju ko je odgovoran ako autonomni robot ubije nedužne civile. Programer? Proizvođač? Komandno osoblje? Operater? Analiza koju je sprovela organizacija Hjuman rajts voč pokazuje da bi bilo teško dokazati nameru bilo kojeg od ovih aktera da se počini nelegalna radnja, jer je robot autonomno doneo odluku o svojim akcijama. Komandno osoblje bi izbeglo i komandnu odgovornost, jer komandujući oficir ne može da predvidi da će robot da počini zločin. Čak i kad postane svestan da robot vrši nelegalnu radnju, postoje brojni razlozi zbog kojih ne bi mogao da ga spreči: prekinuta komunikacija sa robotom, velika brzina kojom robot izvršava svoje aktivnosti, nedostatak tehničke ekspertize da se robot reprogramira, itd. Ova analiza prepoznaje samo slabo izvesnu mogućnost da se utvrdi odgovornost komandnog osoblja za nemar, ali ne i umišljaj. Sumorni i sasvim očigledni zaključak je da praksa retribucije i odvraćanja od nelegalnih radnji nije efektivna u slučaju autonomnih robota. U aprilu 2013. je specijalni izvestilac Kristof Hejns na Generalnoj skupštini Ujedinjenih Nacija ukazao na opasnosti ovih tehnologija, i predložio uvođenje moratorijuma na njihov razvoj. Ova kampanja i dalje traje, sa neizvesnim ishodom.

Odgovornost za budućnost

Kao i uvek, vreme će pokazati kakvi će biti zaista efekti Opšte regulative o zaštiti podataka i kampanje protiv smrtonosnih autonomnih robota. Imajući u vidu komercijalno-militaristički duh savremenog društva, teško je biti optimista. Ipak, svaka društvena inicijativa koja realno sagledava stanje modernih tehnologija je potencijalno korisna. Ako ništa drugo, naučnike i programere u oblasti veštačke inteligencije će možda podsetiti da njihov rad ima dugoročne efekte na celo društvo, i da, kao i kod drugih stvari u životu, u obzir treba uzeti širi kontekst. A javnost će možda opomenuti da preispita svoje ničim neopravdano poverenje u tzv. inteligentne sisteme. Jer je kritičko promišljanje smera tehničkog razvoja (uključujući tu i veštačku inteligenciju) potrebnije nego ikad do sad.

gnjatovic.info