Umjetna inteligencija više nije samo brojanje podataka ili prepoznavanje lica – ona uči čitati kako se osjećamo. Takva AI za otkrivanje emocija (poznata i kao Emocionalna AI ili afektivno računarstvo) koristi algoritme za analizu naših izraza lica, tona glasa, tekstualnih poruka, pa čak i tjelesnih signala kako bi zaključila ljudske emocije. Obećanje je primamljivo: intuitivnije aplikacije, empatični roboti i personalizirana iskustva koja reagiraju na naše raspoloženje. No kako ova tehnologija izlazi iz istraživačkih laboratorija u radna mjesta, škole i javne prostore, otvara velika pitanja. Kako točno rade ti AI “čitači misli”? Gdje se danas koriste? I zašto su neki stručnjaci jednako uzbuđeni zbog mogućnosti koliko su drugi zabrinuti zbog rizika? U ovom detaljnom izvještaju istražit ćemo kako funkcionira AI za otkrivanje emocija, primjenu u stvarnom svijetu kroz industrije, najnovija dostignuća u 2024.–2025. i etičke dileme koje izaziva – navodeći stručne uvide i aktualne činjenice kroz cijeli tekst.
Što je AI za otkrivanje emocija i kako funkcionira?
AI za otkrivanje emocija odnosi se na algoritme koji prepoznaju i interpretiraju ljudske emocije iz različitih ulaznih podataka. U suštini, radi se o davanju strojevima oblika emocionalne inteligencije. Istraživači ovo područje često nazivaju afektivno računarstvo. AI sustavi pokušavaju “čitati” osjećaje kroz više kanala:
- Analiza lica: Jedan od najčešćih pristupa je korištenje računalnog vida za analizu izraza lica. Kamera snima sliku (ili video) lica osobe, a AI prvo detektira lice i ključne točke (oči, obrve, usta itd.). Zatim, koristeći duboko učenje (često konvolucijske neuronske mreže), proučava pokrete mišića ili “mikroizraze” i klasificira izraz lica u kategoriju emocije viso.ai. Mnogi sustavi su obučeni za prepoznavanje osnovnih izraza poput sreće, tuge, ljutnje, straha, iznenađenja, gađenja i neutralnosti botpenguin.com. Na primjer, nasmiješena usta i zgužvane oči mogu biti označeni kao “sretan”, dok namrštene obrve mogu značiti “ljutnja” – iako, kako ćemo vidjeti, nije uvijek tako jednostavno.
- Analiza tona glasa: Osim onoga što govorimo, kako to govorimo može prenijeti emociju. Algoritmi za prepoznavanje emocija u govoru slušaju audio obrasce u govoru – stvari poput visine, glasnoće, tempa i tona. AI modeli analiziraju te vokalne značajke (intonaciju, naglasak, ritam itd.) kako bi zaključili zvuči li osoba uzbuđeno, smireno, uzrujano i slično botpenguin.com. Na primjer, podrhtavajući, visok ton može ukazivati na strah ili ljutnju, dok spor, monoton ton može sugerirati tugu ili umor. Neki sustavi čak prepoznaju određene riječi ili verbalne znakove (poput drhtavog “Dobro sam”) koji koreliraju s emocionalnim stanjima.
- Analiza sentimenta teksta: Emocije se također izražavaju u pisanju. AI može provoditi obradu prirodnog jezika (NLP) na tekstovima – od objava na društvenim mrežama do e-mailova ili chat poruka – kako bi detektirao sentiment. Tradicionalna analiza sentimenta klasificira tekst kao pozitivan, negativan ili neutralan. Novija emocionalna AI ide dalje i identificira specifične osjećaje iz teksta promatrajući izbor riječi, kontekst i interpunkciju botpenguin.com. Na primjer, “Presretna sam!” bi se registriralo kao vrlo pozitivno (sretno/uzbuđeno), dok bi “Osjećam se povrijeđeno i usamljeno…” moglo biti označeno kao tužno ili uznemireno. Veliki jezični modeli i posebno prilagođeni klasifikatori koriste se za analizu emocionalnog tona iza naših riječi.
- Ostali biometrijski signali: Neki napredni sustavi uključuju i fiziološke i bihevioralne signale. To može uključivati govor tijela (držanje, geste), praćenje pogleda (gdje gledate i kako vam se zjenice šire), otkucaje srca, provodljivost kože ili moždane valove putem nosivih uređaja. Ovi signali mogu ukazivati na stres ili uzbuđenje – npr. povišen puls i znojni dlanovi mogu ukazivati na anksioznost. U najnovijim istraživanjima, multimodalna emocionalna AI kombinira facijalne, vokalne i fiziološke podatke za potpuniju sliku trendsresearch.org. Na primjer, AI za praćenje vozača u automobilu može koristiti kameru za promatranje vašeg lica i senzor na volanu za praćenje otkucaja srca, tražeći znakove pospanosti ili bijesa na cesti.
Sve ove metode uključuju strojno učenje na velikim skupovima podataka o ljudskim emocionalnim izrazima. AI modeli se “treniraju” na primjerima – slikama lica označenim s prikazanom emocijom, audio zapisima označenim s raspoloženjem govornika itd. S vremenom, AI uči obrasce koji određene ulaze (određeni osmijeh, ton glasa) povezuju s vjerojatnim emocijama. To je u suštini prepoznavanje obrazaca: AI ne osjeća ništa sama, već daje obrazovanu pretpostavku o našim osjećajima na temelju signala koje odašiljemo.
Važno je napomenuti da su trenutačne AI za detekciju emocija obično ograničene na prepoznavanje nekoliko širokih emocionalnih kategorija ili razina pobuđenosti. Ljudske emocije su nijansirane i ovise o kontekstu, što ovaj zadatak čini vrlo izazovnim za AI. Ipak, tehnologija se brzo poboljšava. Kombiniranjem računalnog vida, analize govora i NLP-a, današnja emocionalna AI može s umjerenom točnošću zaključiti emocionalno stanje osobe – pod pravim uvjetima. Kako jedno izvješće objašnjava, integracija više tehnika (lice, glas, tekst) omogućuje strojevima tumačenje ljudskih emocija “s većom točnošću,” čineći interakcije prirodnijima i responzivnijima trendsresearch.org. U sljedećim odjeljcima pogledat ćemo kako se ove mogućnosti primjenjuju u stvarnom svijetu i koliko su napredovale do 2024.–2025. godine.
Primjene u stvarnom svijetu kroz industrije
AI za prepoznavanje emocija je izašla iz laboratorija i ušla u razne industrije. Ovo su neke od najistaknutijih primjena i slučajeva upotrebe po sektorima:
- Zdravstvo i wellness: AI za emocije se testira kao alat za mentalno zdravlje i brigu o pacijentima. Na primjer, istraživači su razvili aplikacije za pametne telefone koje prate lice i glas korisnika u potrazi za znakovima depresije ili anksioznosti home.dartmouth.edu. Jedno istraživanje iz 2024. predstavilo je MoodCapture, aplikaciju koja koristi kameru telefona za otkrivanje ranih simptoma depresije analizirajući izraze lica korisnika svaki put kad otključaju telefon – ispravno prepoznajući promjene raspoloženja s oko 75% točnosti u ispitivanjima home.dartmouth.edu. Terapeuti također istražuju AI koja sluša tijekom savjetovanja kako bi procijenila emocionalno stanje pacijenta prema tonu glasa, potencijalno upozoravajući ako netko zvuči sve uznemirenije. U bolnicama, kamere za otkrivanje emocija mogle bi pratiti razinu boli ili stresa kod pacijenata kada medicinske sestre nisu prisutne. A za osobe s autizmom, asistivna AI za emocije može pomoći u tumačenju izraza drugih – na primjer, nosivi uređaj ili aplikacija na tabletu koja djetetu s autizmom daje upute poput “Mama je sretna” ili “Tata izgleda uzrujano”, pomažući im da nauče emocionalne znakove mitsloan.mit.edu.
- Marketing i korisničko iskustvo: Tvrtke koriste emocionalnu umjetnu inteligenciju kako bi razumjele potrošače na dubljoj razini. Oglašivači mogu testirati reklame ili promotivne videozapise s panelima gledatelja koji pristaju biti snimani putem web kamere; AI zatim analizira izraze lica kadar po kadar kako bi vidio u kojim trenucima su se ljudi nasmiješili, nasmijali ili izgledali dosadno. Zapravo, otprilike 25% tvrtki s liste Fortune 500 koristilo je emocionalnu AI u istraživanju oglašavanja za mjerenje angažmana publike mitsloan.mit.edu. Vodeća tvrtka na ovom području, Affectiva (koju su osnovali znanstvenici s MIT-a), omogućuje brendovima da zabilježe podsvjesne, “visceralne” reakcije gledatelja na oglase i povežu ih sa stvarnim ponašanjem, poput toga hoće li podijeliti oglas ili kupiti proizvod mitsloan.mit.edu. Osim oglasa, trgovci istražuju kamere za detekciju emocija u trgovinama kako bi procijenili zadovoljstvo kupaca (je li vas ta usluga ostavila ljutima ili sretnima?). Na internetu, chatbotovi opremljeni analizom sentimenta pokušavaju prilagoditi svoje odgovore na temelju raspoloženja korisnika – na primjer, preusmjeriti na ljudskog agenta ako korisnik zvuči ljutito. Čak su i fizički plakati pokušali koristiti analitiku emocija: u Brazilu je interaktivni sustav oglasa u podzemnoj željeznici koristio kamere za klasifikaciju izraza lica putnika (sretan, neutralan, iznenađen, nezadovoljan) i zatim u stvarnom vremenu mijenjao sadržaj oglasa kako bi bolje odgovarao raspoloženju mase research.aimultiple.com.
- Obrazovanje: Učionice i e-learning platforme eksperimentiraju s umjetnom inteligencijom kako bi procijenile emocije i pažnju učenika. Cilj je stvoriti responzivna okruženja za učenje. Na primjer, jedna online tvrtka za podučavanje u Indiji koristila je prepoznavanje emocija putem web kamera učenika za praćenje angažiranosti i umora tijekom nastave uživoresearch.aimultiple.comresearch.aimultiple.com. Sustav je pratio pokrete očiju i izraze lica kako bi izradio “rezultate pažnje”, pomažući učiteljima da prepoznaju kada učenici gube fokus. U nekim visokotehnološkim učionicama kamere su se koristile (kontroverzno) za skeniranje lica učenika u potrazi za znakovima zbunjenosti ili dosade, kako bi učitelji mogli prilagoditi svoje lekcije legalblogs.wolterskluwer.com. Postoje čak i izvještaji iz Kine o školama koje testiraju kamere za prepoznavanje lica koje bilježe emocionalna stanja učenika (poput sreće ili ljutnje) tijekom dana businessinsider.com. Teoretski, takvi alati mogli bi personalizirati obrazovanje – tutorbot bi mogao ponuditi ohrabrenje ako osjeti frustraciju – ali također otvaraju rasprave o nadzoru (više o tome kasnije).
- Automobilska industrija: Proizvođači automobila ugrađuju AI za prepoznavanje emocija u vozila kako bi poboljšali sigurnost i iskustvo vožnje. Sustavi za praćenje vozača koriste kamere na kontrolnoj ploči za promatranje vašeg lica i držanja, provjeravajući pospanost ili ometenost. Ako AI primijeti spuštene kapke ili pogrbljeno držanje (znakove umora), može aktivirati upozorenje. Luksuzni brendovi idu i dalje pokušavajući procijeniti emocionalna stanja vozača: na primjer, otkrivanje je li vozač uzrujan ili ljut (agresivna vožnja) i zatim interveniranje – možda smanjenjem glasnoće glazbe ili čak ograničavanjem brzine automobila mitsloan.mit.edu. Affectiva, sada dio Smart Eye-a, ima automobilski AI sustav koji prati i vozača i putnike. Može prepoznati smije li se vozač ili svađa, ili su putnici tjeskobni, te prema tome prilagoditi postavke automobila (zamislite da automobil pojača sigurnosne sustave ako osjeti stres) mitsloan.mit.edu. U poluautonomnim automobilima, AI za emocije može odlučiti jeste li previše ometeni da preuzmete kontrolu. Primjena u automobilskoj industriji usmjerena je na korištenje prepoznavanja emocija za povećanje sigurnosti, udobnosti i personalizacije na cesti.
- Zabava i igre: Zabava postaje interaktivnija zahvaljujući emocionalnoj umjetnoj inteligenciji. Programeri videoigara počeli su razvijati igre koje reagiraju na emocije igrača. Značajan primjer je “Nevermind,” psihološki triler koji koristi igračevu web kameru (ili biofeedback senzor) za otkrivanje stresa – ako osjeti da se plašite, igra zapravo postaje izazovnija i ubacuje više strašnih elemenata, dok ako ostanete mirni, igra se olakšava research.aimultiple.com. Ovo stvara dinamično horor iskustvo koje se prilagođava razini vašeg straha. U filmu i televiziji, studiji testiraju praćenje lica na testnim publikama kako bi vidjeli emocionalne reakcije na scene (je li zaplet zaista iznenadio gledatelje? Je li komedija izazvala smijeh?). Također se istražuje personalizirani sadržaj: zamislite streaming servis koji može koristiti kameru vašeg laptopa za promatranje vašeg lica i preporučiti filmove koji odgovaraju vašem trenutnom raspoloženju (neke putničke web stranice čak su pokušale preporučiti destinacije na temelju korisnikovog izraza lica research.aimultiple.com). Iako su široko rasprostranjene preporuke sadržaja temeljene na “raspoloženju” još uvijek eksperimentalne, spajanje umjetne inteligencije i zabave obećava nove oblike uranjajućih, interaktivnih medija.
- Provedba zakona i sigurnost: Prepoznavanje emocija razmatra se za sigurnosne primjene, iako je ovo područje najspornije. Neke policijske uprave razmatrale su AI koja skenira prijenose uživo s CCTV kamera ili snimke s kamera na tijelu kako bi označila “sumnjivo” ponašanje ili potencijalnu agresiju. Na primjer, algoritmi mogu analizirati zvučne zapise radi stresa ili ljutnje kako bi identificirali kada bi pozivatelj na 112 ili osoba u pritvoru mogla postati agresivna. Postoje “detektori agresije” koji se nude za javnu sigurnost i slušaju ljutite tonove ili vikanje kako bi unaprijed upozorili osiguranje na moguće sukobe. U Kini, tvrtka Taigusys razvila je AI nadzorni sustav koji masovno prati lica zaposlenika u uredima en masse i tvrdi da može otkriti kako se svaka osoba osjeća – je li zaposlenik sretan, neutralan, ljut ili pod stresom businessinsider.com. Sustav čak tvrdi da zna glumite li osmijeh, te generira izvještaje o radnicima koji pokazuju previše “negativnih” emocija, sugerirajući da im je možda potrebna intervencija ili da su sumnjivi businessinsider.com. U zatvorima se slična tehnologija testirala za praćenje emocionalnog stanja zatvorenika. Granična sigurnost u nekim zemljama isprobala je AI detektore laži koji promatraju mikroekspresije putnika u potrazi za “znakovima prijevare”. Policijska ispitivanja eksperimentiraju s analizom glasa koja pokušava utvrditi je li osumnjičenik nervozan. Međutim, nijedna policijska snaga ne oslanja se na ove alate kao jedini dokaz – čak i zagovornici kažu da bi trebali biti samo dopuna. Kao što ćemo raspraviti, stručnjaci ovdje pozivaju na poseban oprez jer lažna očitanja (npr. AI pogrešno označi nevinu osobu kao “ljutu” ili “varljivu”) mogu imati ozbiljne posljedice u kontekstu pravde i sigurnosti.
U svim tim industrijama, glavna ideja je da, ako strojevi mogu razumjeti naše emocije, mogu s nama komunicirati prirodnije i učinkovitije. AI tutor koji osjeti frustraciju može preformulirati lekciju. Bot korisničke podrške koji čuje nestrpljenje u vašem glasu može odmah pozvati ljudskog menadžera. Auto koji zna da ste umorni može vas razbuditi ili preuzeti vožnju. Cilj Emotion AI-a je u suštini učiniti tehnologiju empatičnijom, prilagođavajući se ljudima umjesto da prisiljava ljude da se prilagode strojevima trendsresearch.org. To je fascinantna granica – i brzo napreduje, što sljedeći odjeljak ilustrira najnovijim razvojem.
Najnoviji razvoj i vijesti (2024.–2025.)
AI za prepoznavanje emocija doživio je brz razvoj u posljednje dvije godine, od tehničkih proboja do regulatornih prepreka. Evo nekih od značajnih nedavnih trendova i vijesti:
- Rastuća ulaganja i startupovi: Poslovni svijet usmjerava pažnju na emocionalnu AI. Industrijski analitičari izvještavaju da je “emocionalna AI” postala vrući trend u poslovnom softveru, osobito kako tvrtke uvode sve više chatbotova i virtualnih asistenata koji trebaju emocionalnu svjesnost techcrunch.com. Nedavno istraživanje PitchBooka predviđa da će usvajanje emocionalne AI rasti kako bi interakcije s AI-jem postale ljudskije techcrunch.com. Rizični kapital ulijeva se u ovaj sektor: primjerice, vodeća tvrtka za konverzacijsku AI, Uniphore, prikupila je više od $600 milijuna (uključujući rundu od $400M u 2022.) za razvoj AI-ja koji može prepoznati emocije korisnika tijekom poziva službi za korisnike techcrunch.com. Brojni startupovi ulaze na ovo područje – tvrtke poput MorphCast, audEERING, Voicesense, SuperCEED, Siena AI, i druge razvijaju alate za analizu facijalnih i glasovnih signala u velikom opsegu techcrunch.com. Tržišne prognoze odražavaju ovaj zamah: jedno izvješće procjenjuje da će globalno tržište detekcije i prepoznavanja emocija narasti s oko 3–4 milijarde dolara u 2024. na više od 7 milijardi u roku od pet godina technologyslegaledge.com, a druga analiza predviđa skok čak do 173 milijarde dolara do 2031. (iako se takve procjene razlikuju) research.aimultiple.com. Jasno je da mnoge tvrtke vide komercijalni potencijal u AI-ju koji može procijeniti osjećaje – bilo radi povećanja prodaje, poboljšanja zadovoljstva korisnika ili povećanja sigurnosti.
- Nove tehnološke mogućnosti: Na području istraživanja, AI sve bolje razumijeva nijansirane emocije. Značajan primjer u 2024. bila je inicijativa na Sveučilištu u Groningenu gdje su AI trenirali da prepoznaje sarkazam u govornom jeziku theguardian.com. Sustavu su davali scenarije iz humorističnih serija poput Prijatelji i Teorija velikog praska, kako bi ga naučili prepoznavati vokalne obrasce sarkastičnog govora (npr. pretjerani ton ili razvlačenje riječi). Model je mogao prepoznati sarkazam u zvuku s oko 75% točnosti theguardian.com. Ovo je značajno jer je sarkazam notorno teško prepoznati algoritmima (a ponekad i ljudima!), a ključan je za razumijevanje stvarnog sentimenta u komunikaciji. Napredak u ovakvim područjima pokazuje da AI za emocije prelazi granice pukog prepoznavanja “sretan vs. tužan” prema složenijim društvenim signalima. Također, multimodalni modeli se poboljšavaju: vidimo AI koji kombinira tekst, glas i podatke o licu za kontekstualno svjesnije očitavanje emocija. Tvrtke poput Hume AI (osnovane od strane bivšeg Googleovog istraživača) razvijaju empatična glasovna sučelja koja reagiraju ne samo na što govorite, već i kako to govorite, s ciljem da AI razgovori budu emocionalno usklađeniji theguardian.com. Hume je čak osnovao etički odbor za usmjeravanje razvoja “empatične AI” theguardian.com, prepoznajući potrebu za opreznim napretkom. S hardverske strane, kamera i senzorska tehnologija su sveprisutne i jeftine, što znači da je lakše nego ikad ugraditi mogućnosti prepoznavanja emocija u telefone, automobile i pametne kućne uređaje.
- Mainstream usvajanje i kontroverze: Kako se AI za prepoznavanje emocija uvodi, nailazi i na određene prepreke. Jedan od najpoznatijih primjera: div video konferencija Zoom navodno je razmatrao dodavanje značajki za detekciju emocija (poput obavještavanja domaćina sastanka jesu li sudionici angažirani ili ometeni) – ali nakon javne reakcije zbog privatnosti, Zoom je sredinom 2022. objavio da “nema planove” implementirati takav AI za praćenje emocija. Slično tome, platforma za zapošljavanje HireVue počela je koristiti AI za analizu izraza lica kandidata tijekom video intervjua, ali je do 2021. odustala od te komponente zbog znanstvene kritike i zabrinutosti javnosti. Ovi slučajevi postavili su temelje za 2024., gdje sama ideja prepoznavanja emocija u aplikacijama za radno mjesto ili potrošače izaziva podignute obrve (i to ne one koje bi AI trebao pratiti). U vijestima i dalje viđamo zabrinutost zbog zloupotrebe: primjerice, izvještaji da kineske tehnološke kompanije koriste prepoznavanje emocija na zaposlenicima izazvali su međunarodnu kritiku businessinsider.com. I dok neki ponuđači reklamiraju “AI za detekciju laži” u sigurnosne svrhe, stručnjaci su mnoge od njih opovrgnuli kao jedva bolje od slučajnosti.
- Regulatorni potezi: Možda je najveći razvoj događaja u 2024. godini to što su vlade počele intervenirati u području emocionalne umjetne inteligencije. U svibnju 2024. Europska unija je finalizirala EU AI Act, sveobuhvatan zakon za regulaciju umjetne inteligencije. Posebno je važno što ovaj zakon zabranjuje korištenje AI-a za prepoznavanje emocija u stvarnom vremenu u određenim kontekstima kao “neprihvatljiv rizik” za ljudska prava theguardian.com. Konkretno, EU će zabraniti AI sustave koji tvrde da mogu zaključiti emocije ljudi na radnim mjestima, u školama ili drugim javnim institucijama (uz uske iznimke poput zdravstva ili sigurnosti) legalblogs.wolterskluwer.com. Zakonodavci EU zaključili su da je prepoznavanje emocija u takvim okruženjima invazivno i nepouzdano te može dovesti do nepravednih ishoda. (Napravili su razliku između AI-a koji samo identificira nečiji vanjski izraz – što bi moglo biti dopušteno – i AI-a koji zapravo proglašava što ta osoba osjeća iznutra, što bi bilo zabranjeno theguardian.com.) Ovakav pravni stav, jedan od prvih takve vrste, odražava rastući skepticizam među donositeljima politika o valjanosti i etici emocionalne AI. U SAD-u ne postoji savezna zabrana, ali neka područja razmatraju ograničenja, a ACLU i druge organizacije za građanska prava pozivaju na zaustavljanje korištenja prepoznavanja emocija u policiji i zapošljavanju aclu.org, businessinsider.com. Činjenica da su regulatori svrstali emocionalnu AI uz društveno bodovanje i subliminalnu manipulaciju (također zabranjene EU Aktom) šalje snažnu poruku: 2025. i dalje vjerojatno će donijeti strožu kontrolu i standarde za svaki AI koji tvrdi da može čitati naše osjećaje.
U sažetku, protekla godina ili dvije bile su ključne. AI za detekciju emocija je rašireniji nego ikad, tiho ulazi u korisničku podršku, automobile i aplikacije – ali je i osporavaniji nego ikad, dok stručnjaci i regulatori povlače ručnu. Kako tehnologija sazrijeva, očekujte još više rasprava o tome može li AI doista razumjeti ljudske emocije i, ako može, tko ima pravo koristiti tu moć. Ta pitanja nas vode ravno u sljedeću temu: etička razmatranja.
Etička razmatranja i zabrinutosti
Uspon AI-a za prepoznavanje emocija izazvao je intenzivne etičke rasprave. Čitanje nečijih emocija nije isto što i očitavanje temperature – to zadire u osobne, često privatne aspekte naših života. Evo ključnih zabrinutosti koje ističu stručnjaci i zagovaratelji:
- Pouzdanost i znanstvena valjanost: Temeljno pitanje je rade li ti sustavi doista kako se tvrdi. Ljudske emocije su složene, ovise o kontekstu i nisu uvijek vidljive na površini. Psiholozi upozoravaju da ne postoji jednostavna jednoznačna povezanost između izraza lica i unutarnjeg osjećaja. Osoba se može smiješiti dok je tužna ili mrštiti dok se koncentrira – izrazi variraju među pojedincima i kulturama. Godine 2019. veliko istraživanje više od 1.000 studija koje je vodila psihologinja Lisa Feldman Barrett zaključilo je da “emocionalno stanje osobe ne može se pouzdano zaključiti samo iz pokreta lica” aclu.org. Ona daje slikovit primjer: “Mrko lice može, ali i ne mora biti izraz ljutnje… ljudi se mršte kad su ljuti, ali i kad su zbunjeni ili čak kad ih muči probava!”aclu.org. Ukratko, kontekst je izuzetno važan kod emocija, a AI obično nema kontekst. Barrett i drugi tvrde da su današnji algoritmi vrlo dobri u prepoznavanju pokreta mišića lica ili intonacije glasa, ali oni ne mogu doista znati što to emocionalno znači aclu.org. Kako je izravno rekla jednom novinaru, “Ne postoji automatizirano prepoznavanje emocija. Najbolji algoritmi mogu prepoznati izraz lica, ali nisu opremljeni da zaključe što on znači” aclu.org. Ovaj skepticizam je raširen u znanstvenoj zajednici. Bez jasne, dogovorene definicije emocija čak ni među psiholozima, izrada AI-ja za njihovo prepoznavanje temelji se na klimavim teorijskim temeljima theguardian.com. U praktičnom smislu, to povećava opasnost od pogrešnog tumačenja: ako AI pogrešno označi osobu kao “ljutu” ili “neiskrenu” na temelju pogrešno protumačenog znaka, to može dovesti do nepravednih posljedica (biti označen od strane sigurnosti, odbijen na razgovoru za posao itd.). Jednostavno rečeno, kritičari tvrde da je trenutna tehnologija prepoznavanja emocija u najboljem slučaju približna – a u najgorem digitalna frenologija (pseudoznanost), osobito kad se koristi za prosuđivanje pojedinaca article19.org.
- Pristranost i pravednost: Kao i mnogi AI sustavi, algoritmi za prepoznavanje emocija mogu odražavati pa čak i pojačavati pristranosti prisutne u podacima na kojima su trenirani. Jedna od glavnih briga je kulturalna i rasna pristranost. Ako je AI prvenstveno treniran, recimo, na zapadnjačkim subjektima koji pokazuju “školske” izraze lica, može pogrešno tumačiti ljude iz različitih etničkih ili kulturnih sredina. Postoje dokazi da se to već događa. Studija iz 2023. godine otkrila je da neki komercijalni AI sustavi za prepoznavanje emocija dosljedno ocjenjuju izraze lica crnaca negativnijima ili ljutitijima u usporedbi s drugim skupinama theguardian.com. Drugim riječima, neutralan izraz na licu crnog muškarca AI može protumačiti kao “ljutit”, dok to ne bi učinio za bijelu osobu – zabrinjavajuća pristranost s očitim posljedicama za, primjerice, sigurnosne provjere ili procjene na radnom mjestu theguardian.com. “Vaši algoritmi su dobri onoliko koliko i materijal za treniranje,” primjećuje Barrett. “Ako je vaš materijal za treniranje pristran, tu pristranost ugrađujete u kod.” theguardian.com. Kultura također utječe na način na koji izražavamo emocije: osmijeh može značiti različite stvari u različitim kontekstima, a geste ili tonovi nisu univerzalni. Erik Brynjolfsson s MIT-a upozorava da tehnologija prepoznavanja emocija mora biti osjetljiva na raznolikost: “Prepoznavanje emocija na licu Afroamerikanca može biti teško za stroj treniran na bijelim licima. A geste ili intonacije u jednoj kulturi mogu značiti nešto sasvim drugo u drugoj” mitsloan.mit.edu. Ako se te nijanse ne uzmu u obzir, tehnologija bi mogla sustavno pogrešno tumačiti ili dovoditi u nepovoljan položaj određene skupine – zapravo kodirati predrasude pod krinkom “čitanja emocija.” Pristranost nije vezana samo uz demografiju; postoji i kontekstualna pristranost (npr. AI u bučnom okruženju može povišene glasove protumačiti kao ljutnju, iako je samo glasno). Osigurati pravednost u AI-u za emocije ogroman je izazov, a do sada mnogi sustavi nisu pokazali da jednako dobro rade za sve ljude.
- Nadzor i privatnost: AI za prepoznavanje emocija često uključuje stalno praćenje izraza lica, glasova ili fizioloških signala ljudi – što izaziva očite zabrinutosti za privatnost. Strah je da bi to moglo omogućiti novu razinu invazivnog nadzora, gdje naši unutarnji osjećaji postaju podatkovne točke koje se mogu pratiti. Na radnim mjestima, primjerice, zaposlenici bi se mogli osjećati kao da su pod emocionalnim mikroskopom, ocjenjuju ih ne samo prema učinku, već i prema tome smiju li se dovoljno ili zvuče li dovoljno “entuzijastično.” Ovo nije znanstvena fantastika; to se već događa na nekim mjestima. Kineski sustav “osmijeh za ocjenu” spomenut ranije je glavni primjer – radnici se boje namrštiti ili izgledati umorno jer AI promatra i prijavit će “loš stav” šefovima businessinsider.com. Takve prakse stvaraju represivno okruženje i narušavaju osobnu autonomiju. Čak i izvan radnog mjesta, zamislite javne kamere koje ne prepoznaju samo vaše lice, već vas označavaju kao “nervozne” ili “uznemirene” dok prolazite. Ti podaci mogli bi se zloupotrijebiti za profiliranje. Za razliku od očitavanja termostata, očitavanje emocija može biti duboko manipulativno – ljudi često pokušavaju prikriti svoje prave osjećaje u javnosti iz dobrih razloga (privatnost, pristojnost), a činjenica da AI to može razotkriti djeluje orvelovski. Zagovornici privatnosti ističu da ljudi nisu dali pristanak da im trgovačke kamere ili policijski CCTV analiziraju emocije. Ipak, softver za prepoznavanje emocija dodaje se nekim sigurnosnim sustavima bez znanja javnosti. Tu je i pitanje sigurnosti podataka: emocionalni podaci (videozapisi lica, snimke glasova) su osjetljive biometrijske informacije. Ako se prikupljaju i pohranjuju, tko ih štiti i koliko dugo? Hakiranje ili curenje podataka o emocijama (npr. snimke terapijskih seansi ili snimke kamera označene nečijim raspoloženjem) moglo bi biti izuzetno štetno. Ukratko, pretvaranje naših emocionalnih života u podatkovne tokove predstavlja “snažan novi oblik nadzora,” kako je to opisala jedna analiza Guardiana theguardian.com. Ova zabrinutost potiče pozive na stroga ograničenja gdje takvo praćenje može biti dopušteno.
- Pristanak i autonomija: Pitanje pristanka usko je povezano s privatnošću. Trebaju li ljudi dati pristanak da bi AI analizirao njihove emocije? Mnogi tvrde da – analiza emocija je toliko osobna da zahtijeva izričito dopuštenje. Neke tvrtke doista slijede opt-in modele. Na primjer, Affectiva ima politiku da za testiranje oglasa snima i analizira samo gledatelje koji su pristali i bili informirani, te zabranjuje korištenje tehnologije za prikriveni nadzor ili bilo kakvu identifikaciju pojedinaca mitsloan.mit.edu. Međutim, nisu svi ponuđači tako strogi, a u praksi zaposlenici ili studenti možda neće osjećati da mogu odbiti ako poslodavac ili škola uvede program za praćenje emocija (zamislite da vam na poslu narede da nosite narukvicu koja detektira emocije). To otvara pitanje prisile. Hoće li radnici u budućnosti biti prisiljeni održavati određeni emocionalni izraz (npr. uvijek zvučati “sretno” na pozivima) jer AI promatra? To zadire u pitanja ljudskog dostojanstva i slobode osjećanja bez analize. Etički, mnogi tvrde da pojedinci moraju zadržati kontrolu nad vlastitim emocionalnim podacima. Trebali biste imati pravo zadržati svoje emocije za sebe ili barem kontrolirati tko/što ih može detektirati. Bez jasnog pristanka, prepoznavanje emocija postaje neželjeno zadiranje u našu mentalnu privatnost – ono što neki znanstvenici nazivaju “mentalnim suverenitetom”. Ohrabruje što novi zakon EU izričito zabranjuje AI za prepoznavanje emocija na radnim mjestima i u školama bez obzira na pristanak (zbog neravnoteže moći, istinski dobrovoljan pristanak je upitan) williamfry.com, legalblogs.wolterskluwer.com. To sugerira naglasak na zaštiti ljudi od pritiska na emocionalnu transparentnost. Kako se ova tehnologija širi, inzistiranje na pristanku – i davanje ljudima mogućnosti da je isključe – može biti ključno za očuvanje osobne autonomije.
- Manipulacija i zloupotreba: Još jedna etička dimenzija je kako bi se uvidi iz emocionalne umjetne inteligencije mogli koristiti za utjecanje na ljude ili njihovo iskorištavanje. Emocije pokreću mnoge naše odluke, a ako tvrtke ili politički akteri mogu otkriti naše osjećaje, mogli bi prilagoditi poruke kako bi naslakše pogodili. Vidjeli smo niskotehnološku verziju ovoga u skandalu Cambridge Analytica, gdje su Facebook podaci korišteni za psihološko profiliranje birača i ciljanje oglasa kako bi se izazvale emocionalne reakcije. Emocionalna umjetna inteligencija mogla bi višestruko pojačati takve taktike – u suštini omogućujući “masovnu emocionalnu manipulaciju”. Kako upozorava Randi Williams iz Algorithmic Justice League, “Kada umjetna inteligencija zadire u najljudskije dijelove nas samih, postoji visok rizik da pojedinci budu manipulirani u komercijalne ili političke svrhe.” theguardian.com. Na primjer, marketinška umjetna inteligencija mogla bi primijetiti da ste jedne večeri pomalo potišteni (detektirano putem vaših pametnih kućnih uređaja), i aplikacija bi vam odmah mogla prikazati oglas za utješnu hranu ili “retail therapy” baš u tom ranjivom trenutku. Ili bi autoritarna vlada mogla koristiti prepoznavanje emocija tijekom televizijskih govora: ako stanovništvo ne izgleda dovoljno oduševljeno, možda je vrijeme za pojačavanje propagande ili istraživanje neistomišljenika. Ovi scenariji zvuče distopijski, ali upravo su to vrste zloupotrebe koje stručnjaci žele spriječiti sada, prije nego što se dogode. Čak i u blažim oblicima, emocionalno usmjeravanje otvara etička pitanja – je li u redu da videoigra namjerno pokušava još više uplašiti igrača kad zna da je već uplašen, kao u primjeru horor igre? Neki će reći da je to u redu za zabavu; drugi se brinu zbog psihološkog utjecaja. Zaključak je da emocionalna umjetna inteligencija daje novu polugu za utjecaj na ljudsko ponašanje, a bez regulative ili etičkih ograničenja, ta poluga može biti povučena u mračnom smjeru (npr. “emocionalna manipulacija” je izričito navedena kao zabranjena upotreba u etičkim smjernicama Hume AI theguardian.com). Transparentnost je ključna: ako se emocionalni podaci koriste za utjecaj na ishode (poput toga da vas AI za zapošljavanje odbije jer misli da vam je nedostajalo “strasti” na razgovoru), osoba to treba znati i imati mogućnost osporiti takvu odluku.
- Regulacija i odgovornost: S obzirom na sve ove zabrinutosti, sve su glasniji pozivi za regulaciju AI sustava za detekciju emocija. EU-ova zabrana u određenim područjima jedan je pristup – u suštini se kaže da su neke upotrebe zabranjene. Drugdje, stručnjaci su predložili zahtijevanje rigorozne validacije i revizije svih implementiranih AI sustava za emocije, kako bi se dokazalo da su točni i nepristrani (što je visok standard koji mnogi možda neće ispuniti). Organizacije poput ACLU i Article 19 zagovarale su potpune moratorije na prepoznavanje afekta u osjetljivim područjima, nazivajući ga neznanstvenim i nespojivim s ljudskim pravima article19.org, businessinsider.com. Drugi aspekt regulacije je zaštita podataka: budući da se emocionalni podaci mogu smatrati biometrijskim ili zdravstvenim podacima, mogli bi potpasti pod zakone o privatnosti poput GDPR-a, što bi zahtijevalo strogi pristanak, ograničenje svrhe i sigurnost. Regulatori također raspravljaju bi li ljudi trebali imati pravo na isključivanje praćenja emocija u javnosti i pravo da ne budu ocjenjivani automatiziranim “emocionalnim bodovima”. S druge strane, neke industrijske skupine zalažu se za standarde koji bi omogućili odgovornu upotrebu AI za emocije (na primjer, IEEE je istraživao etičke smjernice za adaptivne sustave koji reagiraju na emocije). Jasno je da je tehnologija do sada pretekla pravila, ali 2024. označava prekretnicu. Vlade prepoznaju prepoznavanje emocija kao posebnu kategoriju AI koja zahtijeva nadzor. U narednim godinama možemo očekivati više politika koje pokušavaju povući granice oko toga kako i gdje se ti alati mogu koristiti – i osigurati odgovornost onih koji ih koriste. Uostalom, ako AI sustav donese emocionalnu procjenu koja nekome naškodi (npr. označi ga “visokorizičnim” bez razloga), tko je odgovoran? Ta teška pitanja još uvijek čekaju odgovore.
U konačnici, etika se svodi na jednostavno načelo: samo zato što možemo pokušati čitati emocije pomoću AI-a, trebamo li to? I ako da, pod kojim uvjetima? Pristalice vjeruju da postoje humani i korisni načini upotrebe ove tehnologije (posebno uz pristanak i pažnju), dok kritičari smatraju da je sama osnova pogrešna i sklona zloupotrebi. To nas dovodi do našeg završnog dijela, gdje ćemo čuti izravno od stručnjaka s obje strane ove rasprave.
Perspektive stručnjaka
S obzirom na to da se AI za detekciju emocija nalazi na raskrižju inovacija i kontroverzi, zanimljivo je čuti što vodeći glasovi u tom području imaju za reći. Stručnjaci su podijeljeni – neki vide transformativni potencijal, drugi pozivaju na krajnji oprez. Evo nekoliko njihovih mišljenja vlastitim riječima:
- Optimisti i inovatori: Mnogi pioniri afektivnog računarstva tvrde da opremanje strojeva emocionalnom inteligencijom može duboko poboljšati interakciju čovjeka i stroja. “Razmislite o načinu na koji komunicirate s drugim ljudima; gledate im u lice, gledate njihovo tijelo i prema tome mijenjate svoju interakciju,” objašnjava Javier Hernandez, istraživač u MIT-ovoj grupi za afektivno računarstvo. “Kako stroj može učinkovito komunicirati ako ne zna vaše emocionalno stanje?” mitsloan.mit.edu. Ova skupina vjeruje da emocijska umjetna inteligencija može tehnologiju učiniti responzivnijom, personaliziranijom, pa čak i suosjećajnijom. Rana el Kaliouby, koja je suosnovala Affectivu i zagovara “humanizaciju tehnologije”, ističe da su naše emocije ključne za način na koji donosimo odluke i povezujemo se. Ona vidi umjetnu inteligenciju kao podržavajućeg partnera: “Paradigma nije čovjek protiv stroja – zapravo je stroj taj koji nadopunjuje čovjeka,” kaže el Kaliouby, naglašavajući da umjetna inteligencija treba unaprijediti ljudske sposobnosti, a ne ih zamijeniti mitsloan.mit.edu. Po njezinom mišljenju, ako umjetnu inteligenciju primijenimo na pravi način, ona bi, primjerice, mogla pomoći vozačima da ostanu sigurni, pomoći liječnicima da bolje razumiju pacijente ili pomoći korisnicima da se osjećaju saslušano. El Kaliouby je entuzijastična oko korištenja emocijske umjetne inteligencije za dobro – često ističe projekte poput korištenja emocionalne analize za pomoć djeci s autizmom ili za rano otkrivanje problema mentalnog zdravlja. I unatoč zabrinutostima, na pitanje bismo li uopće trebali imati ovu tehnologiju, njezin je odgovor odlučno da. “Apsolutno da,” rekla je 2024. godine – jer uz rizike, “umjetna inteligencija nudi nevjerojatna rješenja za najveće izazove čovječanstva.” asisonline.org Njezin stav, kao i stav mnogih u industriji, jest da ne bismo trebali baciti dijete s vodom za kupanje. Umjesto toga, pozivaju na razvoj odgovorne, na čovjeka usmjerene emocijske umjetne inteligencije – s dizajnom temeljenim na pristanku, transparentnošću i raznolikošću – kako bi se ostvarile koristi (sigurnije ceste, bolje zdravstvo, zanimljivije obrazovanje itd.). Kako el Kaliouby kaže, “Svaka industrija se transformira … uz pomoć umjetne inteligencije,” a emocijska umjetna inteligencija, ako se napravi kako treba, “mogla bi te transformacije učiniti empatičnijima.” asisonline.org Pristalice priznaju izazove, ali općenito smatraju da se oni mogu ublažiti promišljenim dizajnom i politikom, a ne potpunim napuštanjem tehnologije.
- Skeptici i kritičari: S druge strane, skupina znanstvenika i etičara poziva nas da usporimo ili čak zaustavimo tehnologiju prepoznavanja emocija, upozoravajući da se temelji na klimavoj znanosti i nosi neprihvatljive rizike. Već smo čuli za skepticizam profesorice Lise Feldman Barrett, utemeljen na istraživanjima, da se izrazi lica pouzdano mogu povezati s emocijama. Barrett izravno opovrgava tvrdnje mnogih dobavljača: “Većina tvrtki i dalje tvrdi da možete pogledati lice i reći je li netko ljut ili tužan… To očito nije slučaj.” theguardian.com Njezina je briga da će, namjerno ili ne, ti sustavi pogriješiti – i ljudi će biti pogrešno procijenjeni. Još jedna glasna kritičarka, Vidushi Marda iz Article 19 (grupa za digitalna prava), koja je proučavala primjenu prepoznavanja emocija u Kini, izjavila je da je to područje “temeljno ukorijenjeno u neznanstvenim idejama” i da je primjena takvih sustava u velikom opsegu “duboko neetična.” businessinsider.com Zagovornici privatnosti poput Evan Selinger nazvali su prepoznavanje emocija “najopasnijom umjetnom inteligencijom za koju nikad niste čuli,” tvrdeći da može dovesti do novih oblika diskriminacije i manipulacije. I nisu to samo akademici: čak i ljudi iz tehnološke industrije imaju sumnje. U intervjuu za TechCrunch, Andrew Moore, bivši šef Google Cloud AI-a, upozorio je da je pouzdano razumijevanje emocija od strane AI-a “najmanje desetljeće daleko” i da bi zloupotreba prije toga mogla narušiti povjerenje u AI općenito. Ovi stručnjaci često preporučuju stroga ograničenja. ACLU je čak podržao zabrane, a analitičar politike Daniel Kahn Gillmor napisao je, “U najmanju ruku, ničija prava ili egzistencija ne bi smjela ovisiti o AI-jevom nagađanju emocija”. Iz njihove perspektive, potencijalne štete – pogrešna uhićenja, pristrano zapošljavanje, povrede mentalne privatnosti – nadmašuju neizvjesne koristi. Također ističu da se i sami ljudi teško ispravno čitaju emocije jedni drugih kroz kulture i kontekste, pa je očekivati da to može stroj – besmisleno. U suštini, skeptici pozivaju društvo da pritisne pauzu, najprije zahtijeva čvrste dokaze i etičke okvire, i podsjeća da su emocije duboko ljudske – možda nešto što ne želimo da strojevi raščlanjuju.
Zanimljivo je da oba tabora u konačnici teže boljoj budućnosti, ali se razilaze u metodama. Optimisti se usredotočuju na potencijalne dobitke (empatija u AI-u, poboljšano blagostanje), dok se skeptici usredotočuju na sprječavanje šteta (nepravda, gubitak privatnosti). Postoje i umjereni između, koji priznaju potencijal tehnologije, ali inzistiraju na rigoroznim zaštitnim mjerama. Na primjer, Erik Brynjolfsson zalaže se za razvoj emocionalne AI promišljeno, rekavši “važno je zapamtiti da, kada se koristi promišljeno, krajnje koristi mogu i trebaju biti veće od troškova”, ali odmah dodaje da mora biti “prikladno za sve ljude” i kulturno osviješteno mitsloan.mit.edu. Taj srednji put vjerojatno uključuje snažnu regulaciju, transparentnost tvrtki i kontinuirana istraživanja o točnosti tih sustava.
Zaključno, umjetna inteligencija koja detektira emocije nalazi se na fascinantnom raskrižju tehnologije, psihologije i etike. Njezini pristalice vjeruju da može učiniti naše uređaje i usluge mnogo prilagođenijima našim potrebama – od automobila koji nas smiruju do aplikacija koje znaju kada se mučimo i nude pomoć. Njezini kritičari s pravom upozoravaju da nijedna AI ne bi smjela biti terapeut, sudac ili špijun – čitajući naše osjećaje na načine koji mogu zavarati ili potlačiti. Istina će vjerojatno ovisiti o načinu na koji odlučimo koristiti ovu tehnologiju. Od 2025. godine, AI za detekciju emocija je prisutan i napreduje, ali je i pod strogim nadzorom. Vidjeli smo stvarne koristi u određenim nišama (poput praćenja mentalnog zdravlja i prilagodljivog obrazovanja), ali i stvaran otpor (novi zakoni i zabrane kao odgovor na zloupotrebe).
U budućnosti će društvo morati pažljivo kročiti: zahtijevati čvrstu znanstvenu utemeljenost i pravednost u svim alatima za prepoznavanje emocija, osigurati sigurne privatne prostore bez emocionalnog nadzora i demokratski odlučiti gdje je granica između korisne empatije i štetnog zadiranja u privatnost. Jedno je sigurno: ova rasprava tek počinje. AI možda postaje bolja u prepoznavanju jeste li nestašni ili dobri – ali na svima nama je da osiguramo da se ova moćna sposobnost koristi na načine koji poštuju ljudsko dostojanstvo i poboljšavaju naše živote, a ne da ih umanjuju.
Izvori:
- Gaudenz Boesch, “AI Emotion Recognition and Sentiment Analysis,” Viso Blog – viso.ai (10. listopada 2024.) viso.ai
- Noor Al Mazrouei, “Emotion AI: Transforming Human-Machine Interaction,” TRENDS Research (17. veljače 2025.) trendsresearch.org
- Meredith Somers, “Emotion AI, explained,” MIT Sloan (8. ožujka 2019.) mitsloan.mit.edu
- Julie Bort, “’Emotion AI’ may be the next trend for business software, and that could be problematic,” TechCrunch (1. rujna 2024.) techcrunch.com
- Will Knight, “Experts Say ‘Emotion Recognition’ Lacks Scientific Foundation,” ACLU (18. srpnja 2019.) aclu.org
- Oscar Holland, “Jeste li 80% ljuti i 2% tužni? Zašto je ’emocionalna AI’ puna problema,” The Guardian (23. lipnja 2024.) theguardian.com
- Valeria Vasquez i drugi, “Zabrana tehnologija za prepoznavanje emocija putem AI-a na radnom mjestu prema AI Aktu,” Wolters Kluwer – Global Workplace Law (velj. 2025.) legalblogs.wolterskluwer.com
- Cheryl Teh, “‘Svaki osmijeh koji lažirate’ — sustav za prepoznavanje emocija putem AI-a može procijeniti koliko su ‘sretni’ kineski radnici u uredu,” Business Insider (16. lipnja 2021.) businessinsider.com
- AIMultiple Research Team, “Top 10+ primjera i slučajeva upotrebe emocionalne AI u 2025.,” AIMultiple (ažurirano 2. lipnja 2025.) research.aimultiple.com
- Sara Mosqueda, “El Kaliouby: Ljudi mogu iskoristiti AI za poboljšanje svijeta,” Security Management Magazine – GSX Daily (24. rujna 2024.) asisonline.org
- Dartmouth College, “Aplikacija za telefon koristi AI za otkrivanje depresije putem izraza lica,” Dartmouth News (27. veljače 2024.) home.dartmouth.edu