Četvrtak, 12 prosinca, 2024
spot_img

Zadnje objave

Možda vam se sviđa

Googleova umjetna inteligencija može prepoznati emocije

Google kaže da njegova nova obitelj modela umjetne inteligencije ima zanimljivu značajku: sposobnost “identifikacije” emocija.

PaliGemma 2 obitelj modela može analizirati slike, omogućujući umjetnoj inteligenciji da generira opise i odgovori na pitanja o ljudima koje “vidi” na fotografijama.

“PaliGemma 2 generira detaljne, kontekstualno relevantne opise za slike nadilazeći jednostavnu identifikaciju objekta kako bi opisao radnje, emocije i cjelokupni narativ scene.”

Prepoznavanje emocija ne radi odmah, a PaliGemma 2 mora biti fino podešena za tu svrhu. Unatoč tome, stručnjaci s kojima je TechCrunch razgovarao bili su zabrinuti zbog mogućnosti otvoreno dostupnog detektora emocija.

“Ovo me jako zabrinjava”, rekla je za TechCrunch Sandra Wachter, profesorica etike podataka i umjetne inteligencije na Oxford Internet Institute. “Problematično mi je pretpostaviti da možemo ‘čitati’ ljudske emocije. To je kao da pitate magičnu kuglu za savjet.”

Godinama su startupi i tehnološki divovi pokušavali izgraditi umjetnu inteligenciju koja može detektirati emocije za sve, od treninga prodaje do sprječavanja nesreća. Neki tvrde da su to postigli, ali znanost stoji na klimavim empirijskim temeljima.

Većina detektora emocija oslanja se na rane radove Paula Ekmana, psihologa koji je postavio teoriju da ljudi dijele šest zajedničkih temeljnih emocija: ljutnju, iznenađenje, gađenje, užitak, strah i tugu. Naknadna istraživanja dovela su u sumnju Ekmanovu hipotezu, međutim, pokazujući da postoje velike razlike u načinu na koji ljudi iz različitih sredina izražavaju kako se osjećaju.

Detekcija emocija nemoguća u općenitom slučaju

“Detekcija emocija nije moguća u općenitom slučaju, jer ljudi doživljavaju emocije na složene načine”, rekao je za TechCrunch Mike Cook, znanstveni suradnik na King’s Collegeu u Londonu, specijaliziran za AI. “Naravno, mislimo da možemo reći što drugi ljudi osjećaju gledajući ih, a mnogi su ljudi tijekom godina također pokušali, poput špijunskih agencija ili marketinških tvrtki. Siguran sam da je apsolutno moguće otkriti neke generičke označitelja u nekim slučajevima, ali to nije nešto što možemo u potpunosti ‘riješiti’.”

Nije iznenađujuća posljedica je da su sustavi za otkrivanje emocija skloni biti nepouzdani i pristrani prema pretpostavkama svojih dizajnera. U studiji MIT-a iz 2020., istraživači su pokazali da modeli koji analiziraju lice mogu razviti nenamjerne preferencije za određene izraze, poput osmijeha. Noviji radovi sugeriraju da modeli emocionalne analize pripisuju više negativnih emocija licima crnaca nego licima bijelaca.

Google kaže da je proveo “opsežna testiranja” kako bi procijenio demografske pristranosti u PaliGemmi 2 i otkrio “niske razine toksičnosti i vulgarnosti” u usporedbi s referentnim vrijednostima industrije. No tvrtka nije dala potpuni popis mjerila koja je koristila, niti je naznačila koje su vrste testova provedene.

FairFace

Jedino mjerilo koje je Google otkrio je FairFace, skup desetaka tisuća slika glava ljudi. Tvrtka tvrdi da je PaliGemma 2 postigla dobre rezultate na FairFaceu. No neki su istraživači kritizirali referentnu vrijednost kao metriku pristranosti, ističući da FairFace predstavlja samo nekoliko rasnih skupina.

“Tumačenje emocija prilično je subjektivna stvar koja se proteže izvan upotrebe vizualnih pomagala i snažno je ugrađena u osobni i kulturni kontekst”, rekla je Heidy Khlaaf, glavna znanstvenica za umjetnu inteligenciju na Institutu AI Now, neprofitnoj organizaciji koja proučava društvene implikacije umjetne inteligencije. . “Na stranu umjetna inteligencija, istraživanje je pokazalo da emocije ne možemo zaključiti samo na temelju crta lica.”

Sustavi za otkrivanje emocija izazvali su bijes regulatora u inozemstvu, koji su nastojali ograničiti upotrebu tehnologije u visokorizičnim kontekstima.

Prijavite se na naš Newsletter

Popularno