Umetna inteligenca ni več namenjena le obdelavi številk ali prepoznavanju obrazov – uči se brati kako se počutimo. Tako imenovana AI za zaznavanje čustev (znana tudi kot čustvena AI ali afektivno računalništvo) uporablja algoritme za analizo naših obraznih izrazov, tona glasu, besedilnih sporočil in celo telesnih signalov, da bi sklepala o človeških čustvih. Obljuba je mamljiva: bolj intuitivne aplikacije, empatični roboti in prilagojene izkušnje, ki se odzivajo na naše razpoloženje. Toda ko se ta tehnologija iz raziskovalnih laboratorijev seli v delovna okolja, šole in javne prostore, odpira velika vprašanja. Kako pravzaprav ti AI “bralci misli” delujejo? Kje jih danes že uporabljajo? In zakaj so nekateri strokovnjaki tako navdušeni nad možnostmi, kot so drugi zaskrbljeni zaradi pasti? V tem poglobljenem poročilu bomo raziskali, kako deluje AI za zaznavanje čustev, resnične primere uporabe v različnih panogah, najnovejši razvoj v letih 2024–2025 in etične pomisleke, ki jih sproža – pri tem pa bomo navajali strokovna mnenja in aktualna dejstva.
Kaj je AI za zaznavanje čustev in kako deluje?
AI za zaznavanje čustev se nanaša na algoritme, ki prepoznavajo in razlagajo človeška čustva iz različnih podatkovnih virov. Gre v bistvu za to, da strojem damo neko obliko čustvene inteligence. Raziskovalci to področje pogosto imenujejo afektivno računalništvo. Sistemi AI poskušajo “brati” občutke prek več kanalov:
- Analiza obraza: Eden najpogostejših pristopov je uporaba računalniškega vida za analizo obraznih izrazov. Kamera zajame sliko (ali video) obraza osebe, AI pa najprej zazna obraz in ključne točke (oči, obrvi, usta itd.). Nato z uporabo globokega učenja (pogosto konvolucijskih nevronskih mrež) preučuje mišične premike ali “mikroizraze” in razvrsti obrazni izraz v kategorijo čustev viso.ai. Številni sistemi so usposobljeni za prepoznavanje osnovnih izrazov, kot so sreča, žalost, jeza, strah, presenečenje, gnus in nevtralnost botpenguin.com. Na primer, nasmejana usta in nagubane oči so lahko označene kot “srečen”, medtem ko je nagubano čelo lahko “jezen” – čeprav, kot bomo videli, ni vedno tako preprosto.
- Analiza tona glasu: Poleg tega, kaj rečemo, lahko tudi kako to povemo izraža čustva. Algoritmi za prepoznavanje čustev v govoru poslušajo zvočne vzorce v govoru – stvari, kot so višina, glasnost, tempo in ton. AI modeli analizirajo te glasovne značilnosti (intonacijo, poudarke, ritem itd.), da sklepajo, ali oseba zveni vznemirjeno, mirno, razburjeno in podobno botpenguin.com. Na primer, tresoč, visok ton lahko nakazuje strah ali jezo, medtem ko počasen, monoton ton lahko pomeni žalost ali utrujenost. Nekateri sistemi zaznajo celo določene besede ali verbalne namige (na primer tresoč “V redu sem”), ki so povezani s čustvenimi stanji.
- Analiza sentimenta besedila: Čustva se izražajo tudi v pisanju. UI lahko izvaja obdelavo naravnega jezika (NLP) na besedilih – od objav na družbenih omrežjih do e-pošte ali klepetalnih sporočil – za zaznavanje sentimenta. Tradicionalna analiza sentimenta razvršča besedilo kot pozitivno, negativno ali nevtralno. Novejša čustvena UI gre še dlje in prepoznava specifična čustva iz besedila z analizo izbire besed, konteksta in ločil botpenguin.com. Na primer, “Zares sem navdušen!” bi bilo zaznano kot zelo pozitivno (veselje/navdušenje), medtem ko bi “Počutim se prizadetega in osamljenega …” lahko bilo označeno kot žalost ali stiska. Veliki jezikovni modeli in natančno prilagojeni klasifikatorji se uporabljajo za razumevanje čustvenega tona v naših besedah.
- Drugi biometrični signali: Nekateri napredni sistemi vključujejo tudi fiziološke in vedenjske signale. To lahko vključuje govorico telesa (držo, geste), sledenje očem (kam gledate in kako se širijo zenice), srčni utrip, prevodnost kože ali možganske valove prek nosljivih naprav. Ti signali lahko nakazujejo stres ali vznemirjenje – npr. povišan srčni utrip in potne dlani lahko pomenijo tesnobo. V najnaprednejših raziskavah multimodalna čustvena UI združuje obrazne, glasovne in fiziološke podatke za celovitejšo sliko trendsresearch.org. Na primer, avtomobilska UI za spremljanje voznika lahko uporablja kamero za opazovanje vašega obraza in senzor v volanu za spremljanje srčnega utripa, da zazna znake zaspanosti ali jeze na cesti.
Vse te metode vključujejo strojno učenje na velikih zbirkah podatkov o človeških čustvenih izrazih. Modeli UI so “naučeni” na primerih – slikah obrazov z označenimi čustvi, zvočnih posnetkih z označenim razpoloženjem govorca itd. Sčasoma se UI nauči vzorcev, ki določene vnose (določen nasmeh, ton glasu) povezujejo z verjetnimi čustvi. To je v bistvu prepoznavanje vzorcev: UI sama ne čuti ničesar, ampak na podlagi signalov, ki jih oddajamo, ugiba o naših občutkih.
Pomembno je poudariti, da so trenutne UI za zaznavanje čustev običajno omejene na prepoznavanje nekaj splošnih čustvenih kategorij ali ravni vzburjenosti. Človeška čustva so odtenkov polna in odvisna od konteksta, kar to nalogo za UI zelo otežuje. Kljub temu se tehnologija hitro izboljšuje. S kombinacijo računalniškega vida, analize govora in NLP lahko današnja čustvena UI zmerno natančno sklepa o čustvenem stanju osebe – v pravih pogojih. Kot pojasnjuje eno poročilo, integracija več tehnik (obraz, glas, besedilo) omogoča strojem razumevanje človeških čustev “z večjo natančnostjo,” zaradi česar so interakcije bolj naravne in odzivne trendsresearch.org. V naslednjih poglavjih bomo pogledali, kako se te zmožnosti uporabljajo v resničnem svetu in kako daleč so prišle do let 2024–2025.
Uporaba v resničnem svetu po različnih panogah
AI za prepoznavanje čustev je presegel laboratorij in vstopil v različne industrije. Tukaj je nekaj najvidnejših aplikacij in primerov uporabe po sektorjih:
- Zdravstvo in dobro počutje: Čustveni AI se preizkuša kot orodje za duševno zdravje in oskrbo pacientov. Na primer, raziskovalci so razvili aplikacije za pametne telefone, ki spremljajo obraz in glas uporabnikov zaradi znakov depresije ali anksioznosti home.dartmouth.edu. Ena izmed študij iz leta 2024 je predstavila MoodCapture, aplikacijo, ki uporablja kamero telefona za zaznavanje zgodnjih simptomov depresije z analizo obraznih izrazov uporabnika vsakič, ko ta odkleni telefon – v preizkusih je pravilno prepoznala spremembe razpoloženja v približno 75 % primerov home.dartmouth.edu. Terapevti prav tako raziskujejo AI, ki posluša med svetovalnimi sejami in ocenjuje čustveno stanje pacienta po tonu glasu, kar bi lahko opozorilo, če nekdo zveni vse bolj v stiski. V bolnišnicah bi lahko kamere za zaznavanje čustev spremljale raven bolečine ali stresa pri pacientih, kadar medicinsko osebje ni prisotno. In za ljudi z avtizmom lahko pomožni čustveni AI pomaga pri razumevanju izrazov drugih – na primer, nosljiva ali tablična aplikacija, ki otroku z avtizmom prikaže oznake, kot so »Mama je vesela« ali »Oče je videti vznemirjen«, kar jim pomaga pri učenju čustvenih znakov mitsloan.mit.edu.
- Marketing in izkušnja strank: Podjetja uporabljajo čustveno umetno inteligenco za globlje razumevanje potrošnikov. Oglaševalci lahko testirajo reklame ali predstavitvene videe s skupinami gledalcev, ki privolijo v snemanje prek spletne kamere; umetna inteligenca nato analizira obrazne reakcije sličico za sličico, da ugotovi, kateri trenutki so ljudi nasmejali, nasmehnili ali jim povzročili dolgčas. Pravzaprav je približno 25 % podjetij s seznama Fortune 500 uporabilo čustveno umetno inteligenco v oglaševalskih raziskavah za merjenje angažiranosti občinstva mitsloan.mit.edu. Vodilno podjetje na tem področju, Affectiva (ki so ga soustanovili znanstveniki z MIT), omogoča blagovnim znamkam zajemanje podzavestnih, »visceralnih« odzivov gledalcev na oglase in povezovanje teh z resničnim vedenjem, kot je deljenje oglasa ali nakup izdelka mitsloan.mit.edu. Poleg oglasov trgovci raziskujejo kamere za zaznavanje čustev v trgovinah, da bi ocenili zadovoljstvo strank (vas je tista storitev pustila razdražene ali zadovoljne?). Na spletu se klepetalni roboti s sentimentno analizo trudijo prilagoditi svoje odgovore glede na razpoloženje stranke – na primer, pogovor preusmerijo k človeškemu agentu, če uporabnik zveni jezen. Tudi fizični plakati so preizkusili analitiko čustev: v Braziliji je interaktivni oglasni sistem v podzemni železnici uporabljal kamere za razvrščanje izrazov potnikov (vesel, nevtralen, presenečen, nezadovoljen) in nato v realnem času spreminjal vsebino oglasa, da bi bolje ustrezala razpoloženju množice research.aimultiple.com.
- Izobraževanje: Učilnice in e-izobraževalne platforme eksperimentirajo z umetno inteligenco za ocenjevanje čustev in pozornosti učencev. Cilj je ustvariti odzivna učna okolja. Na primer, spletno podjetje za inštrukcije v Indiji je uporabljalo prepoznavanje čustev prek spletnih kamer učencev za spremljanje angažiranosti in utrujenosti med poukom v živoresearch.aimultiple.comresearch.aimultiple.com. Sistem je spremljal gibanje oči in obrazne znake ter ustvarjal “ocene pozornosti”, ki so učiteljem pomagale prepoznati, kdaj so učenci izgubili fokus. V nekaterih visokotehnoloških učilnicah so kamere (sporno) uporabljali za skeniranje obrazov učencev zaradi znakov zmede ali dolgočasja, da so lahko učitelji prilagodili svoje lekcije legalblogs.wolterskluwer.com. Iz Kitajske prihajajo celo poročila o šolah, ki preizkušajo kamere za prepoznavanje obrazov, ki čez dan beležijo čustvena stanja učencev (kot so sreča ali jeza) businessinsider.com. Teoretično bi lahko takšna orodja personalizirala izobraževanje – tutorbot bi lahko ponudil spodbudo, če zazna frustracijo – vendar pa sprožajo tudi razprave o nadzoru (več o tem kasneje).
- Avtomobilska industrija: Proizvajalci avtomobilov vgrajujejo čustveno umetno inteligenco v vozila za izboljšanje varnosti in izkušnje vožnje. Sistemi za spremljanje voznika uporabljajo kamere na armaturni plošči za opazovanje obraza in drže, da preverijo zaspanost ali motnje. Če AI zazna povešene veke ali sključeno držo (znake utrujenosti), lahko sproži opozorilo. Luksuzne znamke gredo še dlje in poskušajo oceniti čustvena stanja voznikov: na primer, zaznajo, ali je voznik vznemirjen ali jezen (cestni bes) in nato posredujejo – morda z umirjanjem glasbe ali celo omejevanjem hitrosti avtomobila mitsloan.mit.edu. Affectiva, zdaj del podjetja Smart Eye, ima avtomobilsko AI platformo, ki spremlja tako voznika kot potnike. Prepozna lahko, ali se voznik smeji ali prepira, ali so potniki zaskrbljeni, in temu primerno prilagodi nastavitve avtomobila (predstavljajte si, da avto zaostri varnostne sisteme, če zazna stres) mitsloan.mit.edu. V polavtonomnih avtomobilih bi lahko čustvena umetna inteligenca odločila, ali ste preveč moteni, da bi prevzeli nadzor. Primeri uporabe v avtomobilski industriji so vsi usmerjeni v uporabo prepoznavanja čustev za izboljšanje varnosti, udobja in personalizacije na cesti.
- Zabava in igre: Zabava postaja bolj interaktivna zahvaljujoč čustveni umetni inteligenci. Razvijalci videoiger so začeli ustvarjati igre, ki se odzivajo na igralčeva čustva. Opazen primer je »Nevermind«, psihološka triler igra, ki uporablja igralčevo spletno kamero (ali biofeedback senzor) za zaznavanje stresa – če zazna, da se prestrašite, igra postane dejansko bolj zahtevna in prinaša več strašljivih trenutkov, medtem ko se ob mirnosti igra olajša research.aimultiple.com. To ustvari dinamično grozljivo izkušnjo, ki se prilagaja vaši ravni strahu. V filmu in televiziji studii testirajo sledenje obrazov na testnih občinstvih, da bi videli čustvene odzive na prizore (ali je preobrat v zgodbi res presenetil gledalce? Je bila komedija smešna?). Raziskujejo tudi personalizirano vsebino: predstavljajte si pretočno storitev, ki lahko uporabi kamero vašega prenosnika za opazovanje vašega obraza in priporoči filme, ki ustrezajo vašemu trenutnemu razpoloženju (nekatere potovalne spletne strani so celo poskusile priporočati destinacije na podlagi uporabnikovega izraza na obrazu research.aimultiple.com). Čeprav so razširjena priporočila vsebin na podlagi razpoloženja še vedno eksperimentalna, združevanje umetne inteligence z zabavo obeta nove oblike poglobljenih, interaktivnih medijev.
- Pravosodje in varnost: Prepoznavanje čustev se preučuje za varnostne namene, čeprav je to področje najbolj sporno. Nekatere policijske uprave so razmišljale o umetni inteligenci, ki pregleduje posnetke varnostnih kamer v živo ali posnetke telesnih kamer, da bi zaznala »sumljivo« vedenje ali morebitno agresijo. Na primer, algoritmi lahko analizirajo zvočne posnetke za zaznavanje stresa ali jeze, da bi ugotovili, kdaj bi lahko klicatelj na 911 ali oseba v priporu postala agresivna. Obstajajo »detektorji agresije«, namenjeni javni varnosti, ki poslušajo jezne tone ali kričanje, da bi varnostno osebje vnaprej opozorili na pretepe. Na Kitajskem je podjetje Taigusys razvilo sistem AI za nadzor, ki spremlja obraze zaposlenih v pisarnah en masse in trdi, da zazna, kako se vsak posameznik počuti – ali je zaposlen srečen, nevtralen, jezen ali pod stresom businessinsider.com. Sistem naj bi celo zaznal, če se pretvarjate, da se smejite, in ustvarja poročila o delavcih, ki kažejo preveč »negativnih« čustev, kar nakazuje, da morda potrebujejo pomoč ali pa so sumljivi businessinsider.com. V zaporih so podobno tehnologijo testirali za spremljanje čustvenih stanj zapornikov. Na mejah so v nekaterih državah preizkusili AI detektorje laži, ki opazujejo mikroizraze potnikov za »znake prevare«. Policijska zaslišanja pa eksperimentirajo z analitiko glasu, ki poskuša ugotoviti, ali je osumljenec živčen. Vendar pa nobena policija se ne zanaša na ta orodja kot edini dokaz – tudi zagovorniki pravijo, da naj bodo le dopolnilna. Kot bomo razpravljali, strokovnjaki tukaj pozivajo k izjemni previdnosti, saj lahko napačne zaznave (npr. če AI napačno označi nedolžno osebo kot »jezno« ali »zavajajočo«) povzročijo resne posledice v pravosodju in varnosti.
V vseh teh panogah je vodilna ideja, da lahko stroji, če razumejo naša čustva, z nami komunicirajo bolj naravno in učinkovito. Učitelj z umetno inteligenco, ki zazna frustracijo, lahko lekcijo preoblikuje. Pogovorni robot za pomoč strankam, ki v vašem glasu zazna nestrpnost, lahko takoj pokliče človeškega vodjo. Avto, ki ve, da ste utrujeni, vas lahko poživlja ali prevzame vožnjo. Cilj čustvene umetne inteligence je v bistvu narediti tehnologijo bolj empatično, tako da se prilagaja ljudem namesto da bi ljudje morali prilagajati strojem trendsresearch.org. To je fascinantna meja – in hitro napreduje, kot prikazuje naslednje poglavje z najnovejšimi razvoji.
Najnovejši razvoj in novice (2024–2025)
AI za zaznavanje čustev je v zadnjih dveh letih doživela hiter razvoj, od tehničnih prebojev do regulativnih ovir. Tukaj je nekaj pomembnih nedavnih trendov in novic:
- Naraščajoče naložbe in zagonska podjetja: Poslovni svet je usmeril pozornost na čustveno umetno inteligenco. Industrijski analitiki poročajo, da “emotion AI” postaja vroč trend v poslovni programski opremi, še posebej, ker podjetja uvajajo več klepetalnih robotov in virtualnih asistentov, ki potrebujejo čustveno zavedanje techcrunch.com. Nedavno poročilo raziskovalnega podjetja PitchBook napoveduje, da bo sprejemanje čustvene umetne inteligence naraslo, da bi interakcije z umetno inteligenco postale bolj človeške techcrunch.com. Tvegani kapital se steka v ta sektor: na primer, vodilno podjetje za konverzacijsko umetno inteligenco, Uniphore, je zbralo več kot 600 milijonov dolarjev (vključno s 400 milijoni dolarjev v letu 2022) za razvoj umetne inteligence, ki lahko prepozna čustva strank med klici za podporo techcrunch.com. Na tem področju nastaja veliko zagonskih podjetij – podjetja, kot so MorphCast, audEERING, Voicesense, SuperCEED, Siena AI, in druga razvijajo orodja za analizo obraznih in glasovnih znakov v velikem obsegu techcrunch.com. Tržne napovedi odražajo ta zagon: eno poročilo ocenjuje, da bo svetovni trg zaznavanja in prepoznavanja čustev zrasel s približno 3–4 milijard dolarjev v letu 2024 na več kot 7 milijard v petih letih technologyslegaledge.com, druga analiza pa napoveduje skok celo do 173 milijard dolarjev do leta 2031 (čeprav se takšne ocene razlikujejo) research.aimultiple.com. Jasno je, da številna podjetja vidijo komercialni potencial v umetni inteligenci, ki lahko zaznava občutke – bodisi za povečanje prodaje, izboljšanje zadovoljstva strank ali večjo varnost.
- Nove tehnološke zmožnosti: Na raziskovalnem področju postaja UI vse boljša pri razumevanju natančnih čustev. Opazen primer v letu 2024 je bil projekt na Univerzi v Groningenu, kjer so UI naučili prepoznavati sarkazem v govorjenem jeziku theguardian.com. Sistem so učili s pomočjo scenarijev iz humorističnih serij, kot sta Prijatelji in Veliki pokovci, s čimer so raziskovalci model naučili prepoznavati glasovne vzorce sarkastičnega govora (npr. pretiran ton ali vlečenje besed). Model je lahko prepoznal sarkazem v zvoku s približno 75-odstotno natančnostjo theguardian.com. To je pomembno, saj je sarkazem zloglasno težko zaznati za algoritme (in včasih tudi za ljudi!), vendar je ključen za razumevanje resničnega čustvenega pomena v komunikaciji. Napredek na takšnih področjih kaže, da UI za prepoznavanje čustev presega zgolj zaznavanje “vesel proti žalosten” in se premika k bolj zapletenim družbenim signalom. Prav tako se izboljšujejo multimodalni modeli: opažamo UI, ki združuje besedilo, glas in podatke o obrazu za bolj kontekstualno zaznavanje čustev. Podjetja, kot je Hume AI (ustanovljeno s strani nekdanjega raziskovalca pri Googlu), razvijajo empatične glasovne vmesnike, ki se odzivajo ne le na kaj poveste, temveč tudi kako to poveste, z namenom, da bi bili pogovori z UI bolj čustveno usklajeni theguardian.com. Hume je celo ustanovil etični odbor za usmerjanje razvoja “empatične UI” theguardian.com, s čimer priznava potrebo po previdnem napredku. Na področju strojne opreme pa so kamere in senzorji vseprisotni in poceni, kar pomeni, da je lažje kot kdajkoli prej vgraditi zmožnosti zaznavanja čustev v telefone, avtomobile in pametne naprave za dom.
- Glavna uporaba in kontroverze: Ko se čustvena umetna inteligenca uveljavlja, naleti tudi na nekatere ovire. En odmeven primer: velikan za videokonference Zoom naj bi razmišljal o uvedbi funkcij za zaznavanje čustev (na primer, da bi gostiteljem sestankov sporočal, ali so udeleženci zbrani ali moteni) – a po javnem odzivu zaradi skrbi glede zasebnosti je Zoom sredi leta 2022 napovedal, da “nima načrtov” za uvedbo takšne umetne inteligence za sledenje čustvom. Podobno je zaposlitvena platforma HireVue začela uporabljati umetno inteligenco za analizo obraznih izrazov kandidatov v video intervjujih, a je do leta 2021 opustila ta del zaradi znanstvene kritike in skrbi javnosti. Ti primeri so postavili temelje za leto 2024, ko že sama zamisel o prepoznavanju čustev v aplikacijah za delo ali potrošnike dviguje obrvi (in ne takšnih, ki bi jih umetna inteligenca smela spremljati). V novicah še naprej spremljamo zaskrbljenost zaradi zlorab: na primer, poročila, da kitajska tehnološka podjetja uporabljajo prepoznavanje čustev pri zaposlenih, so naletela na mednarodno kritiko businessinsider.com. In čeprav nekateri ponudniki oglašujejo “umetno inteligenco za zaznavanje laži” za varnost, so strokovnjaki mnoge od teh razkrinkali kot komaj kaj boljše od naključja.
- Regulativni ukrepi: Morda je največji razvoj v letu 2024 ta, da so vlade začele posegati v čustveno umetno inteligenco. Maja 2024 je Evropska unija dokončno sprejela EU AI Act, obsežen zakon za regulacijo umetne inteligence. Pomembno je, da ta zakon prepoveduje uporabo umetne inteligence za prepoznavanje čustev v realnem času v določenih kontekstih kot “nesprejemljivo tveganje” za človekove pravice theguardian.com. Konkretno bo EU prepovedala sisteme umetne inteligence, ki trdijo, da zaznavajo čustva ljudi na delovnih mestih, v šolah ali drugih javnih ustanovah (z le ozkimi izjemami, kot sta zdravstvo ali varnost) legalblogs.wolterskluwer.com. Zakonodajalci EU so zaključili, da je prepoznavanje čustev v takšnih okoljih invazivno in nezanesljivo ter lahko vodi do nepravičnih izidov. (Naredili so razliko med umetno inteligenco, ki zgolj prepozna zunanji izraz osebe – kar bi bilo morda dovoljeno – in tisto, ki dejansko razglasi, kaj oseba čuti v notranjosti, kar bi bilo prepovedano theguardian.com.) To pravno stališče, eno prvih te vrste, odraža naraščajoči skepticizem med oblikovalci politik glede veljavnosti in etike čustvene umetne inteligence. V ZDA ni zvezne prepovedi, vendar nekatere jurisdikcije razmišljajo o omejitvah, ACLU in druge skupine za državljanske pravice pa so pozvale k ustavitvi uporabe prepoznavanja čustev pri policiji in zaposlovanju aclu.org, businessinsider.com. Dejstvo, da so regulatorji čustveno umetno inteligenco uvrstili skupaj s socialnim točkovanjem in subliminalno manipulacijo (kar je prav tako prepovedano z EU Act), pošilja močno sporočilo: leto 2025 in naprej bosta verjetno prinesla strožji nadzor in standarde za vsako umetno inteligenco, ki trdi, da bere naša čustva.
Povzetek: zadnje leto ali dve sta bili prelomni. Umetna inteligenca za zaznavanje čustev je bolj razširjena kot kdajkoli prej, tiho vstopa v podporo strankam, avtomobile in aplikacije – in je tudi bolj sporna kot kdajkoli, saj strokovnjaki in regulatorji pritiskajo na zavoro. Ko tehnologija dozoreva, pričakujte še več razprav o tem, ali lahko umetna inteligenca resnično razume človeška čustva in kdo lahko uporablja to moč. Ta vprašanja nas vodijo naravnost v naslednjo temo: etična vprašanja.
Etična vprašanja in pomisleki
Vzpon umetne inteligence za prepoznavanje čustev je sprožil intenzivne etične razprave. Branje čustev ni enako kot merjenje temperature – posega v osebne, pogosto zasebne vidike naših življenj. Tukaj so ključni pomisleki, ki jih izpostavljajo strokovnjaki in zagovorniki:
- Zanesljivost in znanstvena veljavnost: Temeljno vprašanje je, ali ti sistemi dejansko delujejo tako, kot trdijo. Človeška čustva so zapletena, odvisna od konteksta in niso vedno vidna na površju. Psihologi opozarjajo, da ne obstaja preprosto ena-na-ena povezava med obrazno mimiko in notranjim občutkom. Oseba se lahko smeji, ko je žalostna, ali mršči, ko se koncentrira – izrazi se razlikujejo med posamezniki in kulturami. Leta 2019 je obsežen pregled več kot 1.000 študij pod vodstvom psihologinje Lisa Feldman Barrett zaključil, da »čustvenega stanja osebe ni mogoče zanesljivo sklepati zgolj iz obraznih gibov« aclu.org. Navede slikovit primer: »Mrščenje obraza je lahko ali pa tudi ne izraz jeze… ljudje mrščijo obraz, ko so jezni, pa tudi ko so zmedeni ali imajo vetrove!«aclu.org. Skratka, kontekst je izjemno pomemben pri čustvih, umetna inteligenca pa običajno nima konteksta. Barrett in drugi trdijo, da so današnji algoritmi zelo dobri pri zaznavanju gibanja obraznih mišic ali intonacije glasu, vendar ne morejo zares vedeti, kaj to čustveno pomeni aclu.org. Kot je odkrito povedala v enem izmed intervjujev: »Samodejnega prepoznavanja čustev ni. Najboljši algoritmi lahko zaznajo obrazno mimiko, vendar niso opremljeni za sklepanje, kaj ta pomeni« aclu.org. Ta skepticizem je razširjen v znanstveni skupnosti. Ker niti med psihologi ne obstaja jasna, dogovorjena definicija čustev, je gradnja umetne inteligence za njihovo prepoznavanje na trhlih teoretičnih temeljih theguardian.com. V praksi to pomeni nevarnost napačne interpretacije: če umetna inteligenca napačno označi osebo kot »jezno« ali »zavajajočo« na podlagi napačno prebranega znaka, lahko to vodi do nepravičnih posledic (npr. da vas označijo na varnostnem pregledu, zavrnejo na zaposlitvenem razgovoru itd.). Kritiki preprosto pravijo, da je trenutna tehnologija za prepoznavanje čustev v najboljšem primeru približek – v najslabšem pa digitalna frenologija (psevdoznanost), še posebej, kadar se uporablja za presojanje posameznikov article19.org.
- Pristranskost in pravičnost: Tako kot številni AI sistemi lahko tudi algoritmi za zaznavanje čustev odražajo in celo okrepijo pristranskosti, prisotne v njihovih učnih podatkih. Ena glavnih skrbi je kulturna in rasna pristranskost. Če je umetna inteligenca večinoma učena na primerih zahodnih oseb, ki prikazujejo učbenike izražanja, lahko napačno razume ljudi iz različnih etničnih ali kulturnih okolij. Obstajajo dokazi, da se to že dogaja. Študija iz leta 2023 je pokazala, da nekateri komercialni sistemi za prepoznavanje čustev dosledno ocenjujejo obrazne izraze temnopoltih ljudi kot bolj negativne ali jezljive v primerjavi z drugimi skupinami theguardian.com. Z drugimi besedami, nevtralen izraz na obrazu temnopoltega moškega bi lahko umetna inteligenca interpretirala kot »jezen«, medtem ko tega ne bi storila pri belcu – zaskrbljujoča pristranskost z očitnimi posledicami za stvari, kot so varnostni pregledi ali ocenjevanje na delovnem mestu theguardian.com. »Vaši algoritmi so le tako dobri, kot je dober učni material,« poudarja Barrett. »Če je vaš učni material pristranski, to pristranskost vgrajujete v kodo.« theguardian.com. Kultura prav tako vpliva na to, kako izražamo čustva: nasmeh lahko pomeni različne stvari v različnih kontekstih, geste ali toni pa niso univerzalni. Erik Brynjolfsson z MIT opozarja, da mora tehnologija za prepoznavanje čustev biti občutljiva na raznolikost: »Prepoznavanje čustev na obrazu Afroameričana je lahko za stroj, ki je bil učen na obrazih belcev, težavno. Geste ali glasovne intonacije v eni kulturi lahko pomenijo nekaj povsem drugega v drugi« mitsloan.mit.edu. Če teh nians ne upoštevamo, lahko tehnologija sistematično napačno interpretira ali prikrajša določene skupine – v bistvu kodira predsodke pod krinko »branja čustev«. Pristranskost ni le demografska; obstaja tudi kontekstualna pristranskost (npr. AI v hrupnem okolju lahko povišane glasove interpretira kot jezo, čeprav je le glasno). Zagotavljanje pravičnosti pri AI za čustva je velik izziv in doslej številni sistemi niso dokazali, da delujejo enako dobro za vse ljudi.
- Nadzor in zasebnost: Čustvena umetna inteligenca pogosto vključuje stalno spremljanje izrazov, glasov ali fizioloških signalov ljudi – kar sproža očitne rdeče zastavice glede zasebnosti. Skrb je, da bi to lahko omogočilo novo raven invazivnega nadzora, kjer bi naša notranja čustva postala sledljive podatkovne točke. Na primer na delovnih mestih bi se lahko zaposleni počutili, kot da so pod čustvenim mikroskopom, ocenjeni ne le glede uspešnosti, ampak tudi glede tega, ali se dovolj smejijo ali zvenijo dovolj “navdušeno.” To ni znanstvena fantastika; to se že dogaja na nekaterih mestih. Kitajski sistem “nasmeh za oceno”, omenjen prej, je odličen primer – delavci se bojijo mrščenja ali utrujenega videza, ker jih opazuje umetna inteligenca in bo poročala o “slabi drži” šefom businessinsider.com. Takšne prakse ustvarjajo zatirajoče okolje in spodkopavajo osebno avtonomijo. Tudi zunaj delovnega mesta si predstavljajte javne kamere, ki ne prepoznajo le vašega obraza, ampak vas tudi označijo kot “živčnega” ali “vznemirjenega”, ko greste mimo. Te podatke bi lahko zlorabili za profiliranje. Za razliko od branja termostata je branje čustev lahko globoko manipulativno – ljudje pogosto poskušajo prikriti svoja prava čustva v javnosti iz dobrih razlogov (zasebnost, vljudnost), in če umetna inteligenca to razkriva, se zdi orwellovsko. Zagovorniki zasebnosti opozarjajo, da ljudje niso privolili, da bi njihova čustva preučevale kamere v nakupovalnih središčih ali policijski CCTV. Kljub temu se programska oprema za prepoznavanje čustev dodaja nekaterim varnostnim sistemom brez vednosti javnosti. Obstaja tudi vprašanje varnosti podatkov: čustveni podatki (videoposnetki obrazov, zvočni posnetki) so občutljive biometrične informacije. Če se zbirajo in shranjujejo, kdo jih varuje in kako dolgo? Vdor ali uhajanje čustvenih podatkov (na primer posnetki terapevtskih sej ali posnetki kamer z označenim razpoloženjem osebe) bi lahko bilo zelo škodljivo. Skratka, spreminjanje naših čustvenih življenj v podatkovne tokove predstavlja “novo močno obliko nadzora,” kot je zapisala ena od analiz Guardiana theguardian.com. Ta skrb spodbuja pozive k strogim omejitvam, kje se takšno spremljanje lahko izvaja.
- Soglasje in avtonomija: Tesno povezano z zasebnostjo je vprašanje soglasja. Bi morali ljudje izrecno privoliti, da AI analizira njihova čustva? Mnogi menijo, da da – čustvena analiza je tako osebna, da zahteva izrecno dovoljenje. Nekatera podjetja dejansko uporabljajo modele opt-in. Na primer, Affectivina politika za testiranje oglasov je, da snemajo in analizirajo le gledalce, ki so privolili in bili obveščeni, poleg tega pa prepovedujejo uporabo te tehnologije za prikrito nadzorovanje ali kakršnokoli identifikacijo posameznikov mitsloan.mit.edu. Vendar pa niso vsi ponudniki tako strogi in v praksi zaposleni ali študenti morda ne bodo imeli občutka, da lahko zavrnejo, če delodajalec ali šola zahteva program za spremljanje čustev (predstavljajte si, da vam naročijo, da morate na delu nositi zapestnico za zaznavanje čustev). To odpira vprašanja prisile. Bodo morali delavci v prihodnosti vzdrževati določen čustveni izraz (npr. vedno zveneti “veselo” med klici), ker jih AI opazuje? To že posega v vprašanja človekovega dostojanstva in svobode čutenja brez analize. Etično gledano mnogi menijo, da morajo posamezniki ohraniti nadzor nad lastnimi čustvenimi podatki. Imeli bi morali pravico obdržati svoja čustva zase ali vsaj nadzorovati, kdo/kaj jih lahko zazna. Brez jasnega soglasja prepoznavanje čustev postane nezaželen poseg v našo mentalno zasebnost – kar nekateri strokovnjaki imenujejo “mentalna suverenost”. Spodbudno je, da nova zakonodaja EU izrecno prepoveduje uporabo čustvene AI na delovnih mestih in v šolah ne glede na soglasje (zaradi neenakosti moči je resnično prostovoljno soglasje vprašljivo) williamfry.com, legalblogs.wolterskluwer.com. To nakazuje usmeritev k zaščiti ljudi pred pritiskom v čustveno transparentnost. Ker se ta tehnologija širi, bo vztrajanje pri soglasju – in možnost, da jo lahko ljudje izklopijo – morda ključno za ohranjanje osebne avtonomije.
- Manipulacija in zloraba: Druga etična dimenzija je, kako bi se lahko vpogledi iz čustvene umetne inteligence uporabili za vplivanje ali izkoriščanje ljudi. Čustva močno vplivajo na naše odločitve, in če lahko podjetja ali politični akterji zaznajo naša čustva, lahko prilagodijo sporočila, da bi pritisnili na naše gumbe. Nizkotehnološko različico tega smo videli v škandalu Cambridge Analytica, kjer so bili podatki s Facebooka uporabljeni za psihološko profiliranje volivcev in ciljanje oglasov za sprožanje čustvenih odzivov. Čustvena umetna inteligenca bi lahko takšne taktike močno okrepila – v bistvu omogočila »množično čustveno manipulacijo«. Kot opozarja Randi Williams iz Algorithmic Justice League, »Ko imamo umetno inteligenco, ki posega v najbolj človeške dele nas samih, obstaja velika nevarnost, da bodo posamezniki manipulirani za komercialni ali politični dobiček.« theguardian.com. Na primer, trženjska umetna inteligenca lahko opazi, da ste nekega večera nekoliko slabe volje (zaznano prek vaših pametnih domačih naprav), in aplikacija vam lahko v tistem ranljivem trenutku takoj prikaže oglas za tolažilno hrano ali nakupovalno terapijo. Ali pa bi avtoritarna vlada lahko uporabila prepoznavanje čustev pri televizijskih govorih: če prebivalstvo ne izgleda dovolj navdušeno, je morda čas, da okrepijo propagando ali raziščejo nasprotnike. Ti scenariji zvenijo distopično, vendar so to vrste primerov zlorabe, ki jih strokovnjaki želijo preprečiti zdaj, preden se zgodijo. Tudi v blažjih oblikah čustveno usmerjanje odpira etična vprašanja – ali je v redu, da videoigra namerno poskuša še bolj prestrašiti igralca, ko ve, da je prestrašen, kot v primeru grozljivke? Nekateri menijo, da je to v redu za zabavo; drugi pa so zaskrbljeni zaradi psihološkega vpliva. Ključno je, da čustvena umetna inteligenca ponuja novo vzvod za vplivanje na človeško vedenje, in brez regulacije ali etičnih smernic bi se ta vzvod lahko uporabil v temne namene (npr. »čustvena manipulacija« je izrecno navedena kot prepovedana uporaba v etičnih smernicah Hume AI theguardian.com). Ključna je transparentnost: če se čustveni podatki uporabljajo za vplivanje na izide (na primer, če vas zaposlitvena umetna inteligenca zavrne, ker meni, da vam je v intervjuju manjkala »strast«), bi moral posameznik to vedeti in imeti možnost, da to izpodbija.
- Urejanje in odgovornost: Glede na vse te pomisleke se pojavljajo vse glasnejši pozivi k regulaciji AI za zaznavanje čustev. Prepoved EU na določenih področjih je eden od pristopov – v bistvu pomeni, da so nekatere uporabe prepovedane. Drugje so strokovnjaki predlagali zahtevo po strogi validaciji in reviziji vseh uvedenih sistemov za zaznavanje čustev, da bi dokazali njihovo natančnost in nepristranskost (kar je visok standard, ki ga mnogi morda ne bodo dosegli). Organizacije, kot sta ACLU in Article 19, so zagovarjale popolno prepoved prepoznavanja afekta na občutljivih področjih, saj ga označujejo kot neznanstvenega in neskladnega z človekovimi pravicami article19.org, businessinsider.com. Drug vidik regulacije je varstvo podatkov: ker se lahko čustveni podatki štejejo za biometrične ali zdravstvene podatke, lahko spadajo pod zakone o zasebnosti, kot je GDPR, ki zahtevajo strogo privolitev, omejitev namena in varnost. Regulatorji razpravljajo tudi o tem, ali bi morali imeti ljudje pravico do izključitve iz sledenja čustvom v javnosti in pravico, da jih ne ocenjujejo avtomatizirane “čustvene ocene”. Po drugi strani pa nekatere industrijske skupine spodbujajo standarde, ki bi omogočili odgovorno uporabo AI za čustva (na primer IEEE je raziskoval etične smernice za prilagodljive sisteme, odzivne na čustva). Jasno je, da je tehnologija do sedaj prehitela pravila, vendar leto 2024 pomeni prelomnico. Vlade prepoznavajo prepoznavanje čustev kot posebno kategorijo AI, ki potrebuje nadzor. V prihodnjih letih lahko pričakujemo več politik, ki bodo poskušale postaviti meje glede tega, kako in kje se lahko ta orodja uporabljajo – ter uveljaviti odgovornost tistih, ki jih uporabljajo. Navsezadnje, če AI sistem poda čustveno oceno, ki nekomu škoduje (npr. ga brez razloga označi za “visoko tveganega”), kdo je odgovoren? Ta zapletena vprašanja še vedno čakajo na odgovore.
Na koncu se etika zvede na preprosto načelo: ali zgolj zato, ker lahko poskušamo brati čustva z AI, to tudi smemo? In če, pod katerimi pogoji? Podporniki verjamejo, da obstajajo človeški in koristni načini uporabe te tehnologije (zlasti s privolitvijo in previdnostjo), medtem ko kritiki menijo, da je že sama predpostavka zgrešena in dovzetna za zlorabe. S tem prehajamo v zadnji del, kjer bomo prisluhnili strokovnjakom z obeh strani te razprave.
Pogledi strokovnjakov
Ker je AI za zaznavanje čustev na razpotju med inovacijami in kontroverznostjo, je poučno slišati, kaj imajo povedati vodilni glasovi na tem področju. Strokovnjaki so razdeljeni – nekateri vidijo preobrazbeni potencial, drugi pozivajo k veliki previdnosti. Tukaj je nekaj njihovih pogledov v njihovih lastnih besedah:
- Optimisti in inovatorji: Mnogi pionirji afektivnega računalništva trdijo, da lahko opremljanje strojev s čustveno inteligenco temeljito izboljša interakcijo med človekom in strojem. »Pomislite, kako komunicirate z drugimi ljudmi; pogledate jim v obraz, opazujete njihovo telo in temu ustrezno prilagodite svojo interakcijo,« pojasnjuje Javier Hernandez, raziskovalec v skupini za afektivno računalništvo na MIT. »Kako lahko stroj učinkovito komunicira, če ne pozna vašega čustvenega stanja?« mitsloan.mit.edu. Ta skupina verjame, da lahko čustveni AI naredi tehnologijo bolj odzivno, prilagojeno in celo sočutno. Rana el Kaliouby, soustanoviteljica podjetja Affectiva in zagovornica »humanizacije tehnologije«, poudarja, da so naša čustva bistvena za naše odločitve in povezovanje. Umetno inteligenco si predstavlja kot podpornega partnerja: »Paradigma ni človek proti stroju – gre za to, da stroj dopolnjuje človeka,« pravi el Kaliouby in poudarja, da bi morala umetna inteligenca izboljšati človeške sposobnosti, ne pa jih nadomestiti mitsloan.mit.edu. Po njenem mnenju bi lahko, če umetno inteligenco uporabimo na pravi način, ta na primer pomagala voznikom ostati varni, zdravnikom razumeti paciente ali strankam dati občutek slišanosti. El Kaliouby je navdušena nad uporabo čustvenega AI za dobro – pogosto omenja projekte, kot so uporaba čustvene analize za pomoč otrokom z avtizmom ali za zgodnje odkrivanje težav v duševnem zdravju. In kljub pomislekom, ko jo vprašajo, ali bi sploh morali imeti to tehnologijo, je njen odgovor odločen da. »Absolutno da,« je dejala leta 2024 – saj poleg tveganj »umetna inteligenca ponuja neverjetne rešitve za največje izzive človeštva.« asisonline.org Njeno stališče in stališče mnogih v industriji je, da ne smemo zlivati otroka z vodo. Namesto tega pozivajo k razvoju odgovorne, na človeka osredotočene čustvene umetne inteligence – z možnostjo izbire, transparentnostjo in raznolikostjo – da bi lahko izkoristili prednosti (varnejše ceste, boljše zdravstvo, bolj privlačno izobraževanje itd.). Kot pravi el Kaliouby, »Vsaka industrija se preobraža … z umetno inteligenco,« in čustveni AI, če je pravilno izveden, »lahko te preobrazbe naredi bolj empatične.« asisonline.org Zagovorniki priznavajo izzive, vendar menijo, da jih je mogoče omiliti s premišljeno zasnovo in politiko, ne pa z opustitvijo tehnologije.
- Skeptiki in kritiki: Na drugi strani pa zbor znanstvenikov in etikov poziva, naj upočasnimo ali celo ustavimo tehnologijo prepoznavanja čustev, saj opozarjajo, da temelji na vprašljivi znanosti in prinaša nesprejemljiva tveganja. Že smo slišali raziskovalno utemeljen skepticizem profesorice Lise Feldman Barrett, da obraznih izrazov ni mogoče zanesljivo povezati s čustvi. Barrettova naravnost zavrača trditve številnih ponudnikov: “Večina podjetij še vedno trdi, da lahko pogledaš obraz in ugotoviš, ali je nekdo jezen ali žalosten… To očitno ne drži.” theguardian.com Njena skrb je, da bodo ti sistemi, ne glede na dobre namene, zgrešili – in ljudje bodo napačno ocenjeni. Druga glasna kritičarka, Vidushi Marda iz Article 19 (skupina za digitalne pravice), ki je preučevala uporabo prepoznavanja čustev na Kitajskem, je izjavila, da je področje “v osnovi zasnovano na neznanstvenih idejah” in da je množična uvedba takšnih sistemov “globoko neetična.” businessinsider.com Zagovorniki zasebnosti, kot je Evan Selinger, so prepoznavanje čustev označili za “najnevarnejšo umetno inteligenco, za katero še niste slišali,” saj lahko vodi do novih oblik diskriminacije in manipulacije. In niso samo akademiki: tudi tehnološki insajderji dvomijo. V intervjuju za TechCrunch je Andrew Moore, nekdanji vodja Google Cloud AI, opozoril, da je zanesljivo razumevanje čustev s strani umetne inteligence “vsaj desetletje oddaljeno” in da bi zloraba pred tem lahko omajala zaupanje v umetno inteligenco nasploh. Ti strokovnjaki pogosto priporočajo stroge omejitve. ACLU je šel celo tako daleč, da je podprl prepovedi, pri čemer je politični analitik Daniel Kahn Gillmor zapisal: “Vsaj nihče ne bi smel biti odvisen od čustvenega ugibanja umetne inteligence, ko gre za njegove pravice ali preživetje”. Po njihovem mnenju so morebitne škode – neupravičeni aretacije, pristransko zaposlovanje, kršitve duševne zasebnosti – večje od negotovih koristi. Prav tako poudarjajo, da imajo tudi ljudje sami težave pri pravilnem branju čustev drugih ljudi v različnih kulturah in kontekstih, zato je pričakovati, da bo to zmogla naprava, nesmiselno. V bistvu skeptiki pozivajo družbo, naj pritisne na pavzo, najprej zahteva trdne dokaze in etične okvire ter se spomni, da so čustva intimno človeška – morda nekaj, česar si ne želimo, da bi stroji razčlenjevali.
Zanimivo je, da si obe strani v končni fazi želita boljšo prihodnost, a se razlikujeta v pristopu. Optimisti se osredotočajo na potencialne koristi (empatija v umetni inteligenci, izboljšano dobro počutje), medtem ko se skeptiki osredotočajo na preprečevanje škode (krivice, izguba zasebnosti). Obstajajo tudi zmerneži vmes, ki priznavajo potencial tehnologije, a vztrajajo pri strogi zaščiti. Na primer, Erik Brynjolfsson zagovarja razvoj čustvene umetne inteligence premišljeno in pravi, da “je pomembno, da si zapomnimo, da morajo biti končne koristi, če jo uporabljamo premišljeno, večje od stroškov”, a takoj doda, da mora biti “primerna za vse ljudi” in kulturno občutljiva mitsloan.mit.edu. Ta srednja pot verjetno vključuje strogo regulacijo, transparentnost podjetij in nadaljnje raziskave o natančnosti teh sistemov.
Za zaključek, umetna inteligenca, ki zaznava čustva, se nahaja na fascinantnem stičišču tehnologije, psihologije in etike. Njeni podporniki verjamejo, da lahko naše naprave in storitve naredi veliko bolj prilagojene našim potrebam – od avtomobilov, ki nas pomirijo, do aplikacij, ki vedo, kdaj se spopadamo s težavami, in ponudijo pomoč. Njeni kritiki pa upravičeno opozarjajo, da nobena umetna inteligenca ne bi smela igrati terapevta, sodnika ali vohuna – brati naših občutkov na načine, ki bi lahko zavajali ali zatirali. Resnica je morda odvisna od tega, kako se odločimo, da jo bomo uporabljali. Leta 2025 je umetna inteligenca za zaznavanje čustev prisotna in napreduje, a je tudi pod drobnogledom. Videli smo resnične koristi na določenih področjih (kot sta spremljanje duševnega zdravja in prilagodljivo izobraževanje), pa tudi resničen odpor (nove zakone in prepovedi kot odziv na zlorabe).
V prihodnje bo morala družba ubrati previdno pot: zahtevati trdne znanstvene temelje in pravičnost pri vseh orodjih za zaznavanje čustev, zagotoviti varne zasebne prostore brez čustvenega nadzora ter demokratično odločiti, kje naj bo meja med koristno empatijo in škodljivim vdorom. Eno je gotovo: ta razprava se šele začenja. Umetna inteligenca je morda vse boljša pri ugotavljanju, ali ste pridni ali poredni – a odvisno je od nas vseh, da zagotovimo, da se ta zmogljiva sposobnost uporablja na načine, ki spoštujejo človekovo dostojanstvo in izboljšujejo naša življenja, ne pa jih zmanjšujejo.
Viri:
- Gaudenz Boesch, “AI Emotion Recognition and Sentiment Analysis,” Viso Blog – viso.ai (10. okt. 2024) viso.ai
- Noor Al Mazrouei, “Emotion AI: Transforming Human-Machine Interaction,” TRENDS Research (17. feb. 2025) trendsresearch.org
- Meredith Somers, “Emotion AI, explained,” MIT Sloan (8. mar. 2019) mitsloan.mit.edu
- Julie Bort, “’Emotion AI’ may be the next trend for business software, and that could be problematic,” TechCrunch (1. sept. 2024) techcrunch.com
- Will Knight, “Experts Say ‘Emotion Recognition’ Lacks Scientific Foundation,” ACLU (18. jul. 2019) aclu.org
- Oscar Holland, »Ste 80 % jezni in 2 % žalostni? Zakaj je ‘čustveni AI’ poln težav,« The Guardian (23. junij 2024) theguardian.com
- Valeria Vasquez in drugi, »Prepoved tehnologij za prepoznavanje čustev z umetno inteligenco na delovnem mestu po Zakonu o AI,« Wolters Kluwer – Global Workplace Law (feb. 2025) legalblogs.wolterskluwer.com
- Cheryl Teh, »‘Vsak nasmeh, ki ga ponarediš’ — sistem za prepoznavanje čustev z umetno inteligenco lahko oceni, kako ‘srečni’ so kitajski delavci v pisarni,« Business Insider (16. junij 2021) businessinsider.com
- AIMultiple Research Team, »10+ najboljših primerov in uporab čustvene umetne inteligence v 2025,« AIMultiple (posodobljeno 2. junij 2025) research.aimultiple.com
- Sara Mosqueda, »El Kaliouby: Ljudje lahko izkoristijo umetno inteligenco za izboljšanje sveta,« Security Management Magazine – GSX Daily (24. september 2024) asisonline.org
- Dartmouth College, »Aplikacija za telefon uporablja umetno inteligenco za zaznavanje depresije iz obraznih znakov,« Dartmouth News (27. februar 2024) home.dartmouth.edu