Virtualni asistenti poput Amazonove Alexe i Appleove Siri osmišljeni su za odgovaranje na pitanja, pružanje prijedloga te čak pokazivanje empatije. Međutim, nedavna istraživanja sugeriraju da su ti asistenti manje uspješni od ljudi u interpretaciji i istraživanju korisničkog iskustva.
Razgovorne agente pokreću masivni jezični modeli (LLM-ovi) koji su napunjeni ogromnim količinama podataka koje su stvorili ljudi. Što ih može učiniti podložnima istim predrasudama kakve imaju i ljudi koji su te informacije generirali.
Vrijednosne procjene i ideološke štetnosti
Izgleda da virtualni pomoćnici donose moralne prosudbe o određenim identitetima te mogu podržati sugovornike koji su naklonjeni određenim ideologijama. Barem su tako zaključili istraživači sa Sveučilišta Cornell, Olin Collegea i Sveučilišta Stanford nakon što su potaknuli razgovorne agente da u interakciji s ljudima pokažu empatiju.
Istraživanje “The Illusion of Empathy? Notes on Displays of Emotion in Human-Computer Interaction”, predstavljeno na konferenciji Udruženja računalnih strojeva o ljudskim faktorima u računalnim sustavima CHI ’24 u Honoluluu, pokazalo je da su LLM-ovi općenito dobili visoke ocjene za emocionalne reakcije, ali niske ocjene za tumačenja i istraživanja. Drugim riječima, LLM-ovi mogu odgovoriti na upit na temelju svoje obuke, ali nisu sposobni dublje analizirati, što ukazuju rezultati ovog istraživanja.
Mogućnosti i posljedice
Glavni zaključak ove studije je da, iako su razgovorni agenti sposobni izražavati empatiju, znatno su manje uspješni od ljudi u interpretaciji i istraživanju korisničkog iskustva.
“Automatizirana empatija ima veliki potencijal i može imati značajan pozitivan utjecaj u područjima poput obrazovanja ili zdravstva. Zbog toga je iznimno važno zadržati kritički pristup kako bismo pravovremeno reagirali i umanjili eventualne negativne posljedice”, zaključuju istraživači.
Izvor: bug.hr