Umjetna inteligencija mogla bi uzrokovati financijsku krizu s “katastrofalnim” posljedicama, smatra povjesničar i pisac Yuval Noah Harari, koji kaže da sofisticiranost tehnologije otežava predviđanje njezinih opasnosti.
Harari je za Guardian rekao da zabrinutost oko sigurnosnih testiranja modela umjetne inteligencije predviđa sve probleme koje moćan sustav može prouzročiti. Za razliku od nuklearnog oružja, nije postojao jedan “veliki, opasni scenarij” koji bi svi razumjeli, rekao je.
“S umjetnom inteligencijom, ono o čemu govorite je vrlo velik broj opasnih scenarija, svaki od njih ima relativno malu vjerojatnost, ali uzeti zajedno… predstavlja egzistencijalnu prijetnju opstanku ljudske civilizacije.”
Autor Sapiensa, koji je bio istaknuti glas zabrinutosti oko razvoja umjetne inteligencije, rekao je da je prošlotjedna multilateralna deklaracija na globalnom summitu o sigurnosti umjetne inteligencije u Bletchley Parku “vrlo važan korak naprijed” jer su se vodeće vlade okupile kako bi izrazile zabrinutost oko tehnologije i učiniti nešto po tom pitanju.
“Možda je ono što najviše ohrabruje ili daje nadu to što bi mogli pridobiti ne samo Europsku uniju, UK, Sjedinjene Države, nego i vladu Kine da potpišu deklaraciju“, rekao je. “Mislim da je to bio vrlo pozitivan znak. Bez globalne suradnje bit će iznimno teško, ako ne i nemoguće, obuzdati najopasniji potencijal umjetne inteligencije.”
Summit je zaključen sporazumom između 10 vlada – uključujući UK i SAD, ali ne i Kinu – EU i velikih AI tvrtki, uključujući ChatGPT programera OpenAI i Google, o suradnji na testiranju naprednih AI modela prije i nakon njihovog objavljivanja.
Nepredvidljivost i umjetna inteligencija
Harari je rekao da je jedan problem sa sigurnosnim testiranjem modela predviđanje svih problema koje moćan sustav može izazvati. „AI se razlikuje od svih prethodnih tehnologija u ljudskoj povijesti jer je to prva tehnologija koja može sama donositi odluke, koja može sama stvarati nove ideje i koja može sama učiti i razvijati se. Gotovo po definiciji, ljudima je iznimno teško, čak i ljudima koji su stvorili tehnologiju, predvidjeti sve potencijalne opasnosti i probleme.”
Vlade su navele prijetnju od sustava umjetne inteligencije koji pomažu u stvaranju biološkog oružja kada su pokušavale javnosti objasniti njegove opasnosti, rekao je Harari. Ali bilo je i drugih scenarija koji bi se mogli razmotriti. Autor je istaknuo financije kao sektor koji je idealan za sustave umjetne inteligencije – “ovo je idealno polje za AI jer su to samo podaci“. I potencijalni izvor ozbiljne krize koju je stvorila umjetna inteligencija.
“Što se događa ako AI ne samo da dobije veću kontrolu nad financijskim sustavom u svijetu, nego počne stvarati nove financijske uređaje koje samo AI može razumjeti, koje nijedno ljudsko biće ne može razumjeti?” rekao je Harari. Dodajući i da su financijsku krizu 2007.-2008. prouzročili dužnički instrumenti kao što su kolateralizirane dužničke obveze (CDO) koje je malo ljudi razumjelo. Te su stoga bili neadekvatno regulirani.
“AI ima potencijal za stvaranje financijskih uređaja koji su redova veličine složeniji od CDO-a. I samo zamislite situaciju u kojoj imamo financijski sustav koji nijedno ljudsko biće nije u stanju razumjeti, a samim time ni u stanju regulirati“, rekao je. “A onda dođe do financijske krize i nitko ne razumije što se događa.”
Zabrinutost zbog naprednog modela umjetne inteligencije
Prošli mjesec britanska vlada izrazila je zabrinutost zbog naprednog modela umjetne inteligencije koji potencijalno stvara egzistencijalnu prijetnju kontroliranjem i manipuliranjem financijskim sustavima. Ali Harari je rekao da financijska kriza koju je stvorila umjetna inteligencija neće uništiti ljudsku civilizaciju – “bar ne izravno”. Dodao je: “Moglo bi, neizravno, ako izazove određene vrste ratova ili sukoba. To je katastrofalan rizik – ekonomski, društveni, politički – ali sam po sebi ne bih ga opisao kao egzistencijalni.”
Izraelski autor, koji je podržao pozive na šestomjesečnu pauzu u naprednom razvoju umjetne inteligencije i podupire odgovornost tvrtki za umjetnu inteligenciju za štetu koju prouzrokuju njihovi proizvodi, rekao je da fokus ne bi trebao biti na određenim propisima i zakonima, već na regulatornim institucijama koje poznaju tehnologija koja može brzo reagirati kada se pojave nova otkrića.
“Moramo što je brže moguće stvoriti moćne regulatorne institucije koje su sposobne prepoznati i reagirati na opasnosti koje se pojave na temelju razumijevanja da ne možemo unaprijed predvidjeti sve opasnosti i probleme i unaprijed donijeti zakone protiv njih.” Dodao je: “Ovo bi trebao biti glavni napor, a ne napor da se sada napiše neki vrlo dugačak i kompliciran propis koji bi do trenutka kada prođe parlament ili kongres mogao biti zastario.”
Angažman stručnjaka koji razumiju utjecaj umjetne inteligencije
Kao dio te postavke, instituti za sigurnost umjetne inteligencije trebali bi angažirati stručnjake koji razumiju potencijalni utjecaj umjetne inteligencije na svijet financija, rekao je Harari.
Prošli mjesec Rishi Sunak najavio je osnivanje sigurnosnog instituta za umjetnu inteligenciju u Velikoj Britaniji. Nekoliko dana kasnije Bijela kuća je objavila planove za slično tijelo, pri čemu se očekuje da će oboje igrati ključne uloge u testiranju naprednih modela umjetne inteligencije. Govoreći na summitu, Sunak je rekao da Ujedinjeno Kraljevstvo prvo mora razumjeti mogućnosti naprednih modela prije uvođenja zakona koji će se s njima nositi.
Glasnogovornik Odjela za znanost, inovacije i tehnologiju rekao je da je nedavna bijela knjiga o umjetnoj inteligenciji označila britanske financijske regulatore, Financial Conduct Authority i Prudential Regulation Authority, kao prikladne nadzornike za AI i financije.
“Oni razumiju rizike u svojim sektorima i u najboljoj su poziciji da zauzmu proporcionalan pristup reguliranju umjetne inteligencije”, rekao je glasnogovornik.