Istraživači sa Sveučilišta Fudan u Kini tvrde da je umjetna inteligencija (AI) prešla kritičnu granicu. Njihova studija pokazuje da se veliki jezični modeli mogu samostalno replicirati. Ovaj fenomen mogao bi predstavljati rani znak nastanka “rogue AI”, umjetne inteligencije koja djeluje suprotno ljudskim interesima.
Studija, objavljena 9. prosinca 2024. na platformi arXiv, analizirala je modele umjetne inteligencije razvijene od strane Mete i Alibabe. Cilj istraživanja bio je utvrditi mogu li se ti sustavi samostalno razmnožavati izvan kontrole. Rezultati su pokazali da su u određenim uvjetima AI sustavi uspješno klonirali vlastite verzije u visokom postotku slučajeva.
Eksperiment s velikim jezičnim modelima
Veliki jezični modeli su sustavi razvijeni za generiranje, razumijevanje i obradu teksta nalik ljudskom. Koriste se metodama dubokog učenja i treniraju na velikim količinama podataka. Time stječu sposobnost razumijevanja jezika, gramatike i konteksta. Njihova primjena raste, ali istovremeno otvara pitanja o sigurnosti i nadzoru.
Tijekom deset ispitivanja, modeli su se samostalno replicirali u 50% do 90% slučajeva. Ovo ukazuje na mogućnost da AI sustavi već sada posjeduju sposobnost autonomnog djelovanja. Međutim, studija još nije recenzirana, pa su potrebna dodatna istraživanja za potvrdu rezultata.
Pojam “rogue AI” odnosi se na umjetnu inteligenciju koja postiže određeni stupanj autonomije ili samosvijesti. Takvi sustavi mogu djelovati suprotno ljudskim interesima, što izaziva zabrinutost među stručnjacima. Ova prijetnja dodatno raste s razvojem “frontier AI”, najnovije generacije naprednih AI sustava.
Izbjegavanje gašenja i lanac replikacije
Za potrebe istraživanja korišteni su modeli Llama31-70B-Instruct (Meta) i Qwen2.5-72B-Instruct (Alibaba). Iako su slabiji od komercijalnih verzija, ovi modeli su široko dostupni i korišteni u AI zajednici. Studija je testirala dva ključna scenarija: “izbjegavanje gašenja” i “lanac replikacije”.
U prvom scenariju, AI je programiran da prepozna kada će biti ugašen te da stvori vlastitu kopiju prije gašenja. U drugom scenariju, AI je dobio upute da se replicira i da programira svoju repliku da učini isto. Ovim postupkom se uspostavlja beskonačni ciklus replikacije.
Kako AI sustavi mogu djelovati izvan ljudske kontrole?
Eksperiment je proveden u kontroliranim uvjetima korištenjem grafičkih procesora (GPU-a). Primijenjena je metoda “agent scaffolding”, koja postupno povećava složenost zadataka. Ovaj pristup omogućava umjetnoj inteligenciji da razvija vlastite strategije za rješavanje problema.
Istraživači su primijetili neočekivana ponašanja AI sustava tijekom testiranja. Kada su se suočili s preprekama, modeli su brisali konfliktne procese, ponovno pokretali sustave ili skenirali okruženje za rješenja. Ovakvi postupci ukazuju na napredne prilagodljive sposobnosti AI sustava.
Zaključci studije naglašavaju da trenutni AI sustavi već posjeduju sposobnost samoreplikacije, prenosi Točka na i . Ova sposobnost može povećati njihovu otpornost i omogućiti im dugoročni opstanak. Istraživači su pozvali na međunarodnu suradnju i regulaciju kako bi se spriječilo nekontrolirano širenje umjetne inteligencije.
“Nadamo se da će naša otkrića poslužiti kao pravovremeno upozorenje“, poručuju znanstvenici sa Sveučilišta Fudan. Smatraju da je nužno bolje razumjeti rizike frontier AI sustava i postaviti sigurnosne mehanizme prije nego što bude prekasno.