U današnjoj eri umjetne inteligencije, korisnici moraju biti izuzetno oprezni prilikom korištenja AI odgovora. Iako AI obećava olakšanje svakodnevnih zadataka, čini se da postoji ozbiljna prijetnja vezana uz njegovu vjerodostojnost. Prema istraživanju koje je proveo OpenAI i podijelio s The New York Timesom, najnoviji modeli GPT, poput GPT-3 i GPT-4 mini, pokazuju ozbiljnu sklonost prema halucinacijama. To znači da izmišljaju činjenice, što izaziva zabrinutost, posebno jer se AI sve više koristi u raznim industrijama i institucijama.
Više netočnih, nego točnih odgovora
Iako su modeli poput GPT-3 i GPT-4 mini razvijeni da bolje oponašaju ljudsko rezoniranje, to ih čini sklone greškama. Dok su prethodni modeli poput GPT-1 bili izuzetno precizni u zadacima poput kemije, biologije i matematike, noviji modeli pokazuju porast u broju netočnih informacija. Testovi su pokazali da je GPT-3 u 33% slučajeva halucinirao, dok je manji model GPT-4 mini imao čak 48% netočnih odgovora. Štoviše, na testu općeg znanja, SimpleQA, GPT-3 i GPT-4 mini su imali 51% i 79% netočnih odgovora, što izaziva dodatnu zabrinutost.
Jedan od razloga za ove greške može biti pokušaj složenijeg rezoniranja. Noviji modeli ne samo da generiraju tekst, već pokušavaju analizirati i improvizirati odgovore. To povećava vjerojatnost da će pogriješiti. Stariji modeli držali su se jednostavnijih i točnijih odgovora, dok su noviji počeli “dublje razmišljati”, što ih vodi u izmišljanje činjenica. Time granica između teorije i fikcije postaje sve zamagljenija.
Abraham Lincoln kao voditelj podcasta?
Takvo ponašanje nije samo teoretska prijetnja. U stvarnom svijetu, AI se sve više koristi u školama, uredima, bolnicama i administraciji. Greške u odgovoru mogu uzrokovati značajne probleme. Na primjer, tvrdnja da je Abraham Lincoln vodio podcast samo je jedno od mnogih netočnih informacija koje AI generira. Za tehnologiju koja je dizajnirana da pomogne ljudima, ovakvi propusti mogu rezultirati u većim poteškoćama u svakodnevnim zadacima.
Iako OpenAI nastoji poboljšati točnost svojih modela, korisnicima ostaje odgovornost da budu oprezni. Čak i najnoviji modeli s naprednim sposobnostima mogu pružiti netočne odgovore. AI koji se koristi u obrazovanju, zdravstvu i administraciji ne smije biti izvor pogrešaka. Potrebno je dodatno razviti mehanizme koji će smanjiti ove halucinacije i povećati preciznost.
Kako bi se dodatno razumjela priroda tih grešaka, stručnjaci u AI zajednici razmatraju različite pristupe za poboljšanje točnosti i smanjenje broja halucinacija, piše Zimo. Korisnicima ostaje iznimno važno da ne prihvaćaju AI odgovore zdravo za gotovo. U konačnici, tehnologija je alat koji treba pomoći, a ne zamijeniti ljudsku prosudbu.
Ovo je istraživanje izazvalo ozbiljnu zabrinutost među korisnicima koji ovise o AI za profesionalne i obrazovne zadatke.