Grupa sadašnjih i bivših zaposlenika vodećih svjetskih tvrtki za umjetnu inteligenciju objavila je otvoreno pismo. U pismu upozoravaju na manjak sigurnosnog nadzora u industriji i pozivaju na bolju zaštitu zviždača.
Pismo, koje zagovara “pravo na upozorenje o umjetnoj inteligenciji”, predstavlja jednu od najotvorenijih izjava o opasnostima AI-a koju su iznijeli zaposlenici unutar općenito tajnovite industrije. Pismo je potpisalo jedanaest sadašnjih i bivših zaposlenika OpenAI-ja, kao i dva sadašnja ili bivša zaposlenika Google DeepMinda, od kojih je jedan prethodno radio u Anthropicu.
Dvije godine zabrinutosti
“Tvrtke koje razvijaju umjetnu inteligenciju raspolažu važnim informacijama koje nisu javno dostupne ni transparentne, uključujući mogućnosti i ograničenja svojih sustava, učinkovitost zaštitnih mjera te razine rizika od različitih vrsta štete”, stoji u pismu.
“Uz to, trenutačno imaju samo ograničene obveze dijeljenja dijela tih informacija s vladama, a nikakve s civilnim društvom. Smatramo da se na njih ne možemo osloniti da će to učiniti dobrovoljno,” navodi se u pismu. OpenAI je branio svoju praksu, navodeći da posjeduje mehanizme poput ‘tipline’ za prijavu problema unutar tvrtke te da ne uvodi nove tehnologije dok nisu osigurane odgovarajuće zaštitne mjere.
Pismo je objavljeno nakon što su prošlog mjeseca suosnivač OpenAI-ja Ilya Sutskever i ključni istraživač sigurnosti Jan Leike dali otkaz.
“Ponosni smo na naše iskustvo u pružanju najnaprednijih i najsigurnijih AI sustava te vjerujemo u naš znanstveni pristup upravljanju rizicima. Slažemo se da je temeljita rasprava ključna zbog važnosti ove tehnologije,” izjavili su iz OpenAI-ja, prenosi The Guardian.
Zabrinutost zbog potencijalnih šteta od umjetne inteligencije prisutna je već desetljećima, ali nedavni procvat AI-ja dodatno je pojačao te strahove i izazvao poteškoće za regulatore koji pokušavaju držati korak s tehnološkim napretkom. Iako AI tvrtke javno izražavaju predanost sigurnom razvoju tehnologije, istraživači i zaposlenici upozoravaju na nedostatak adekvatnog nadzora.
Pismo sadašnjih i bivših zaposlenika AI kompanija, o kojem je prvi izvijestio New York Times, apelira na veću zaštitu zaposlenika u naprednim AI tvrtkama koji odluče izraziti zabrinutost u vezi sa sigurnosnim pitanjima.
Zahtijeva se usvajanje načela transparentnosti i odgovornosti, uključujući obvezu da tvrtke ne prisiljavaju zaposlenike na potpisivanje sporazuma koji zabranjuju iznošenje problema vezanih uz rizike umjetne inteligencije. Također se traži uspostava mehanizama koji bi omogućili zaposlenicima anonimno dijeljenje svojih zabrinutosti s vodstvom tvrtke.
(Ne)kultura sigurnosti
Pismo ističe da sadašnji i bivši zaposlenici predstavljaju rijetku skupinu koja može smatrati AI korporacije odgovornima pred javnošću sve dok nema učinkovitog državnog nadzora. Međutim, obimni ugovori o povjerljivosti sprječavaju ih da izraze svoje zabrinutosti. Osim ako se obraćaju samim tvrtkama koje možda ne rješavaju te probleme.
Prema Vox-u, kompanije poput OpenAI-ja primjenjivale su agresivne metode kako bi spriječile svoje zaposlenike da slobodno iznose informacije o svom radu. Nedavno je izvješće otkrilo da je OpenAI zahtijevao od svojih bivših zaposlenika da potpišu izuzetno restriktivne dokumente o neprosljeđivanju podataka, prijeteći im gubitkom dioničkog kapitala. Nakon ovih optužbi, glavni izvršni direktor OpenAI-ja, Sam Altman, obećao je promjene u postupcima tvrtke, piše Poslovni.
Pismo je objavljeno nakon što su dvojica stručnjaka iz OpenAI-a, suosnivač Ilya Sutskever i ključni istraživač sigurnosti Jan Leike, prošlog mjeseca podnijeli ostavke. Leike je naglasio nedostatak kulture sigurnosti u OpenAI-u. U tom otvorenom pismu, koje je objavljeno u utorak, istaknute su neke od Leikeovih tvrdnji, uključujući nedostatak transparentnosti u poslovanju tvrtki.