AI, ktorá vie, ako sa cítite: Nástup technológií na rozpoznávanie emócií

25 augusta, 2025
AI That Knows How You Feel: The Rise of Emotion-Detecting Tech
AI That Knows How You Feel

Umelá inteligencia už nie je len o spracovávaní čísel alebo rozpoznávaní tvárí – učí sa čítať ako sa cítime. Takzvaná AI na detekciu emócií (známa aj ako Emotion AI alebo afektívne počítanie) používa algoritmy na analýzu našich výrazu tváre, tónu hlasu, textových správ a dokonca aj telesných signálov, aby odhadla ľudské emócie. Sľub je lákavý: intuitívnejšie aplikácie, empatickí roboti a personalizované zážitky, ktoré reagujú na našu náladu. No ako sa táto technológia presúva z výskumných laboratórií do pracovísk, škôl a verejných priestorov, vyvoláva veľké otázky. Ako presne tieto AI „čítajúce myšlienky“ fungujú? Kde sa dnes používajú? A prečo sú niektorí odborníci nadšení z možností, zatiaľ čo iní sú znepokojení rizikami? V tejto hĺbkovej správe preskúmame, ako AI na detekciu emócií funguje, reálne aplikácie v rôznych odvetviach, najnovší vývoj v rokoch 2024–2025 a etické otázky, ktoré vyvoláva – s odkazmi na odborné poznatky a aktuálne fakty počas celého textu.

Čo je AI na detekciu emócií a ako funguje?

AI na detekciu emócií označuje algoritmy, ktoré rozpoznávajú a interpretujú ľudské emócie z rôznych dátových vstupov. V podstate ide o to, dať strojom určitú formu emocionálnej inteligencie. Výskumníci toto odvetvie často nazývajú afektívne počítanie. Systémy AI sa snažia „čítať“ pocity cez viacero kanálov:

  • Analýza tváre: Jedným z najbežnejších prístupov je použitie počítačového videnia na analýzu výrazu tváre. Kamera zachytí obraz (alebo video) tváre osoby a AI najprv deteguje tvár a kľúčové body (oči, obočie, ústa atď.). Potom pomocou hlbokého učenia (často konvolučné neurónové siete) skúma pohyby svalov alebo „mikro-výrazy“ a zaraďuje výraz tváre do kategórie emócií viso.ai. Mnohé systémy sú trénované na rozpoznávanie základných výrazov ako radosť, smútok, hnev, strach, prekvapenie, znechutenie a neutralita botpenguin.com. Napríklad usmiate ústa a pokrčené oči môžu byť označené ako „šťastný“, zatiaľ čo zvraštené obočie môže znamenať „nahnevaný“ – hoci, ako uvidíme, nie je to vždy také jednoduché.
  • Analýza tónu hlasu: Okrem toho, čo hovoríme, ako to hovoríme, môže vyjadrovať emócie. Algoritmy na rozpoznávanie emócií v reči počúvajú zvukové vzory v hlase hovoriaceho – veci ako výška, hlasitosť, kadencia a tón. Modely AI analyzujú tieto hlasové znaky (intonáciu, dôraz, rytmus atď.), aby odhadli, či človek znie nadšene, pokojne, rozrušene a podobne botpenguin.com. Napríklad trasúci sa, vysoký tón môže naznačovať strach alebo hnev, zatiaľ čo pomalý, monotónny hlas môže naznačovať smútok alebo únavu. Niektoré systémy dokonca zachytávajú konkrétne slová alebo slovné signály (napríklad trasľavé „Som v poriadku“), ktoré korelujú s emocionálnymi stavmi.
  • Analýza sentimentu textu: Emócie sa prejavujú aj v písanom prejave. AI dokáže vykonávať spracovanie prirodzeného jazyka (NLP) na textoch – od príspevkov na sociálnych sieťach po e-maily alebo chatové správy – aby zistila sentiment. Tradičná analýza sentimentu klasifikuje text ako pozitívny, negatívny alebo neutrálny. Novšia emocionálna AI ide ďalej a identifikuje konkrétne pocity z textu na základe výberu slov, kontextu a interpunkcie botpenguin.com. Napríklad „Som úplne nadšený!“ by bolo vyhodnotené ako veľmi pozitívne (šťastný/nadšený), zatiaľ čo „Cítim sa tak zranený a sám…“ by mohlo byť označené ako smutné alebo zúfalé. Veľké jazykové modely a špeciálne trénované klasifikátory sa používajú na rozpoznávanie emocionálneho tónu v našich slovách.
  • Iné biometrické signály: Niektoré pokročilé systémy zahŕňajú aj fyziologické a behaviorálne signály. Môže ísť o reč tela (držanie tela, gestá), sledovanie očí (kam sa pozeráte a ako sa rozširujú zreničky), srdcový tep, vodivosť pokožky alebo mozgové vlny prostredníctvom nositeľných zariadení. Tieto signály môžu naznačovať stres alebo vzrušenie – napr. zvýšený srdcový tep a spotené dlane môžu signalizovať úzkosť. V najmodernejšom výskume multimodálna emocionálna AI kombinuje mimiku, hlasové a fyziologické údaje pre komplexnejší obraz trendsresearch.org. Napríklad AI na monitorovanie vodiča v aute môže použiť kameru na sledovanie vašej tváre a senzor v volante na sledovanie srdcového tepu, aby zistila príznaky ospalosti alebo agresivity za volantom.

Všetky tieto metódy zahŕňajú strojové učenie na veľkých dátových súboroch ľudských emocionálnych prejavov. AI modely sú „trénované“ na príkladoch – obrázkoch tvárí označených emóciou, ktorú vyjadrujú, zvukových nahrávkach označených náladou hovoriaceho atď. Postupom času sa AI naučí vzorce, ktoré spájajú určité vstupy (konkrétny úsmev, tón hlasu) s pravdepodobnými emóciami. V podstate ide o rozpoznávanie vzorcov: AI sama necíti nič, ale na základe signálov, ktoré vysielame, robí kvalifikovaný odhad o našich pocitoch.

Je dôležité poznamenať, že súčasné AI na rozpoznávanie emócií sú zvyčajne obmedzené na rozpoznávanie niekoľkých širokých kategórií emócií alebo úrovní vzrušenia. Ľudské emócie sú nuansované a závislé od kontextu, čo robí túto úlohu pre AI veľmi náročnou. Napriek tomu sa technológia rýchlo zlepšuje. Kombinovaním počítačového videnia, analýzy reči a NLP dokáže dnešná emocionálna AI s primeranou presnosťou určiť emocionálny stav človeka – za vhodných podmienok. Ako uvádza jedna správa, integrácia viacerých techník (tvár, hlas, text) umožňuje strojom interpretovať ľudské emócie „s väčšou presnosťou,“ vďaka čomu pôsobia interakcie prirodzenejšie a pohotovejšie trendsresearch.org. V ďalších častiach sa pozrieme na to, ako sa tieto schopnosti využívajú v reálnom svete a kam sa dostali v rokoch 2024–2025.

Reálne aplikácie naprieč odvetviami

AI na rozpoznávanie emócií sa presunula z laboratória do rôznych odvetví. Tu sú niektoré z najvýznamnejších aplikácií a prípadov použitia podľa sektorov:

  • Zdravotníctvo a wellness: AI na rozpoznávanie emócií sa testuje ako nástroj pre duševné zdravie a starostlivosť o pacientov. Napríklad, výskumníci vyvinuli aplikácie pre smartfóny, ktoré monitorujú tvár a hlas používateľov kvôli príznakom depresie alebo úzkosti home.dartmouth.edu. Jedna štúdia z roku 2024 predstavila MoodCapture, aplikáciu, ktorá využíva kameru telefónu na detekciu skorých príznakov depresie analýzou výrazu tváre používateľa pri každom odomknutí telefónu – v testoch správne identifikovala zmeny nálady s približne 75% presnosťou home.dartmouth.edu. Terapeuti tiež skúmajú AI, ktorá počas sedení počúva a hodnotí emocionálny stav pacienta podľa tónu hlasu, pričom môže upozorniť, ak niekto znie čoraz viac rozrušene. V nemocniciach by kamery na rozpoznávanie emócií mohli monitorovať úroveň bolesti alebo stresu pacientov, keď nie sú prítomné sestry. A pre ľudí s autizmom môže asistenčná AI na rozpoznávanie emócií pomôcť interpretovať výrazy iných – napríklad nositeľné zariadenie alebo aplikácia na tablete, ktorá autistickému dieťaťu zobrazí popisky ako „Mama je šťastná“ alebo „Ocko vyzerá nahnevane“, čím mu pomáha učiť sa emocionálne signály mitsloan.mit.edu.
  • Marketing a zákaznícka skúsenosť: Spoločnosti využívajú emocionálnu AI na hlbšie pochopenie spotrebiteľov. Inzerenti môžu testovať reklamy alebo produktové videá s panelmi divákov, ktorí súhlasia so záznamom cez webkameru; AI potom analyzuje mimiku snímok po snímke, aby zistila, ktoré momenty ľudí rozosmiali, rozosmiali, alebo ich nechali znudených. V skutočnosti približne 25 % spoločností z rebríčka Fortune 500 použilo emocionálnu AI vo výskume reklamy na meranie zapojenia publika mitsloan.mit.edu. Vedúca firma v tejto oblasti, Affectiva (spoluzaložená vedcami z MIT), umožňuje značkám zachytiť podvedomé, „viscerálne“ reakcie divákov na reklamy a korelovať ich so skutočným správaním, ako je napríklad to, či reklamu zdieľajú alebo si produkt kúpia mitsloan.mit.edu. Okrem reklám maloobchodníci skúmajú kamery na detekciu emócií v predajniach, aby zistili spokojnosť zákazníkov (zanechala vás táto interakcia so službou nahnevaných alebo šťastných?). Online sa chatboty vybavené analýzou sentimentu snažia prispôsobiť svoje odpovede na základe nálady zákazníka – napríklad eskalujú na ľudského agenta, ak používateľ znie nahnevane. Dokonca aj fyzické billboardy vyskúšali analytiku emócií: v Brazílii interaktívny systém reklám v metre využíval kamerové záznamy na klasifikáciu výrazov cestujúcich (šťastný, neutrálny, prekvapený, nespokojný) a následne v reálnom čase menil obsah reklamy, aby lepšie zodpovedal nálade davu research.aimultiple.com.
  • Vzdelávanie: Triedy a e-learningové platformy experimentujú s AI na posudzovanie emócií a pozornosti študentov. Cieľom je vytvoriť responzívne vzdelávacie prostredia. Napríklad online doučovacia spoločnosť v Indii použila rozpoznávanie emócií cez webkamery študentov na sledovanie zapojenia a únavy počas živých hodínresearch.aimultiple.comresearch.aimultiple.com. Systém monitoroval pohyby očí a mimiku na vytváranie „skóre pozornosti“, ktoré pomáhali učiteľom zistiť, kedy študenti stratili sústredenie. V niektorých high-tech triedach boli (kontroverzne) použité kamery na skenovanie tvárí študentov kvôli známkam zmätenia alebo nudy, aby učitelia mohli prispôsobiť svoje hodiny legalblogs.wolterskluwer.com. Dokonca existujú správy z Číny o školách, ktoré testujú kamery na rozpoznávanie tváre, ktoré zaznamenávajú emocionálne stavy študentov (ako šťastie alebo hnev) počas celého dňa businessinsider.com. Teoreticky by takéto nástroje mohli personalizovať vzdelávanie – tutorbot by mohol ponúknuť povzbudenie, ak vycíti frustráciu – no zároveň vyvolávajú debaty o dohľade (viac o tom neskôr).
  • Automobilový priemysel: Výrobcovia automobilov integrujú emocionálnu AI do vozidiel na zlepšenie bezpečnosti a zážitku z jazdy. Systémy monitorovania vodiča používajú kamery na palubnej doske na sledovanie vašej tváre a držania tela, aby zistili ospalosť alebo rozptýlenie. Ak AI zaznamená, že vám klesajú viečka alebo sa hrbíte (znaky únavy), môže spustiť výstrahu. Luxusné značky idú ešte ďalej a snažia sa posúdiť emocionálne stavy vodičov: napríklad zistiť, či je vodič rozrušený alebo nahnevaný (agresívna jazda) a následne zasiahnuť – napríklad zjemniť hudbu alebo dokonca obmedziť rýchlosť auta mitsloan.mit.edu. Affectiva, teraz súčasť Smart Eye, má AI pre automobilový priemysel, ktorá monitoruje vodiča aj pasažierov. Vie zistiť, či sa vodič smeje alebo háda, alebo či sú pasažieri nervózni, a podľa toho upraviť nastavenia auta (predstavte si, že auto sprísni bezpečnostné systémy, ak vycíti stres) mitsloan.mit.edu. V poloautonómnych autách môže emocionálna AI rozhodnúť, či ste príliš rozptýlení na prevzatie riadenia. Príklady použitia v automobilovom priemysle sú všetky o využití rozpoznávania emócií na zvýšenie bezpečnosti, pohodlia a personalizácie na cestách.
  • Zábava a hranie hier: Zábava sa vďaka emocionálnej AI stáva interaktívnejšou. Vývojári videohier začali vytvárať hry, ktoré reagujú na emócie hráča. Významným príkladom je „Nevermind,“ psychologický thriller, ktorý využíva webkameru hráča (alebo biofeedback senzor) na detekciu stresu – ak zistí, že sa bojíte, hra sa skutočne stáva náročnejšou a pridáva viac strašidelných momentov, zatiaľ čo ak zostanete pokojní, hra sa uvoľní research.aimultiple.com. Vzniká tak dynamický hororový zážitok, ktorý sa prispôsobuje úrovni vášho strachu. Vo filme a televízii štúdiá testujú sledovanie tváre na testovacích divákoch, aby videli emocionálne reakcie na scény (prekvapil divákov naozaj zvrat v deji? Rozosmiala ich komédia?). Skúma sa aj personalizovaný obsah: predstavte si streamovaciu službu, ktorá môže použiť kameru vášho notebooku na sledovanie vašej tváre a odporučiť filmy, ktoré zodpovedajú vašej aktuálnej nálade (niektoré cestovné weby dokonca skúšali odporúčať destinácie na základe výrazu tváre používateľa research.aimultiple.com). Hoci rozšírené odporúčania obsahu na základe nálady sú zatiaľ experimentálne, prepojenie AI so zábavou sľubuje nové formy pohlcujúcich, interaktívnych médií.
  • Presadzovanie práva a bezpečnosť: Rozpoznávanie emócií sa zvažuje pre bezpečnostné aplikácie, hoci táto oblasť je najkontroverznejšia. Niektoré policajné oddelenia zvažovali AI, ktorá skenuje živé zábery z CCTV alebo záznamy z kamier na tele, aby označila „podozrivé“ správanie alebo potenciálnu agresiu. Napríklad algoritmy môžu analyzovať hlasové nahrávky na stres alebo hnev, aby identifikovali, kedy by sa volajúci na tiesňovú linku alebo osoba vo väzbe mohla stať agresívnou. Existujú „detektory agresie“ určené pre verejnú bezpečnosť, ktoré počúvajú nahnevané tóny alebo krik, aby vopred upozornili bezpečnostnú službu na bitky. V Číne spoločnosť Taigusys vyvinula AI monitorovací systém, ktorý sleduje tváre zamestnancov v kanceláriách en masse a tvrdí, že dokáže zistiť, ako sa každý človek cíti – či je zamestnanec šťastný, neutrálny, nahnevaný alebo v strese businessinsider.com. Systém dokonca tvrdí, že vie, či predstierate úsmev, a generuje správy o pracovníkoch, ktorí prejavujú príliš veľa „negatívnych“ emócií, čo naznačuje, že môžu potrebovať zásah alebo byť podozriví businessinsider.com. V väzniciach sa podobná technológia testovala na monitorovanie emocionálneho stavu väzňov. Pohraničná bezpečnosť v niektorých krajinách skúšala AI detektory lži, ktoré sledujú mikroexpresie cestujúcich na „znaky klamstva“. A policajné výsluchy experimentujú s hlasovou analytikou, ktorá sa snaží zistiť, či je podozrivý nervózny. Avšak žiadna polícia sa nespolieha na tieto nástroje ako na jediný dôkaz – aj zástancovia tvrdia, že by mali byť len doplnkové. Ako si povieme, odborníci tu vyzývajú na mimoriadnu opatrnosť, pretože falošné vyhodnotenia (napr. AI nesprávne označí nevinného človeka za „nahnevaného“ alebo „klamára“) môžu mať vážne dôsledky v oblasti spravodlivosti a bezpečnosti.

Naprieč všetkými týmito odvetviami je hnacou myšlienkou to, že ak stroje dokážu rozumieť našim emóciám, môžu s nami komunikovať prirodzenejšie a efektívnejšie. AI tútor, ktorý vycíti frustráciu, môže preformulovať lekciu. Chatbot zákazníckej podpory, ktorý v tvojom hlase počuje netrpezlivosť, môže okamžite privolať ľudského manažéra. Auto, ktoré vie, že si unavený, ťa môže povzbudiť alebo prevziať riadenie. Cieľom Emotion AI je v podstate urobiť technológie empatickejšími, aby sa prispôsobovali ľuďom namiesto toho, aby sa ľudia museli prispôsobovať strojom trendsresearch.org. Je to fascinujúca hranica – a rýchlo napreduje, ako ukazuje nasledujúca časť s najnovšími vývojmi.

Najnovší vývoj a novinky (2024–2025)

AI na rozpoznávanie emócií zaznamenala rýchly rozvoj za posledné dva roky, od technických prelomov až po regulačné prekážky. Tu sú niektoré z najvýznamnejších nedávnych trendov a noviniek:

  • Rastúce investície a startupy: Obchodný svet sa zameriava na emocionálnu AI. Odborní analytici z odvetvia uvádzajú, že „emotion AI“ sa stáva horúcim trendom v podnikových softvéroch, najmä keď firmy nasadzujú viac chatbotov a virtuálnych asistentov, ktorí potrebujú emocionálne povedomie techcrunch.com. Nedávna výskumná správa PitchBook predpovedá, že adopcia emocionálnej AI porastie, aby boli interakcie s AI ľudskejšie techcrunch.com. Do tohto sektora prúdi rizikový kapitál: napríklad popredná spoločnosť v oblasti konverzačnej AI, Uniphore, získala viac ako 600 miliónov dolárov (vrátane kola vo výške 400 miliónov v roku 2022) na vývoj AI, ktorá dokáže čítať emócie zákazníkov počas servisných hovorov techcrunch.com. Do tejto oblasti vstupuje množstvo startupov – spoločnosti ako MorphCast, audEERING, Voicesense, SuperCEED, Siena AI, a ďalšie vyvíjajú nástroje na analýzu mimiky a hlasových prejavov vo veľkom meradle techcrunch.com. Trhové prognózy odrážajú tento trend: jedna správa odhaduje, že globálny trh detekcie a rozpoznávania emócií vzrastie z približne 3–4 miliárd dolárov v roku 2024 na viac ako 7 miliárd v priebehu piatich rokov technologyslegaledge.com, a ďalšia analýza predpovedá nárast až na 173 miliárd dolárov do roku 2031 (hoci takéto odhady sa líšia) research.aimultiple.com. Je zrejmé, že mnohé firmy vidia v AI, ktorá dokáže odhadnúť pocity, obchodný potenciál – či už na zvýšenie predaja, zlepšenie spokojnosti zákazníkov alebo zvýšenie bezpečnosti.
  • Nové technologické možnosti: Vo výskume sa AI zlepšuje v chápaní názorových emócií. Výrazným príkladom v roku 2024 bol projekt na Univerzite v Groningene, ktorý trénoval AI na detekciu sarkazmu v hovorenom jazyku theguardian.com. Systém bol trénovaný na dialógoch zo seriálov ako Priatelia a Teória veľkého tresku, čím sa výskumníci naučili rozpoznávať hlasové vzorce sarkastickej reči (napr. prehnaný tón alebo natiahnutá výslovnosť). Model dokázal identifikovať sarkazmus v audiozáznamoch s približne 75% presnosťou theguardian.com. Toto je významné, pretože sarkazmus je pre algoritmy (a niekedy aj pre ľudí!) notoricky ťažké rozpoznať, no je kľúčom k pochopeniu skutočných pocitov v komunikácii. Pokrok v takýchto oblastiach naznačuje, že emocionálna AI sa posúva za hranice rozpoznávania len „šťastný vs. smutný“ smerom ku komplexnejším sociálnym signálom. Rovnako sa zlepšujú multimodálne modely: vidíme AI, ktorá kombinuje text, hlas a údaje z tváre pre kontextovo citlivejšie čítanie emócií. Spoločnosti ako Hume AI (založená bývalým výskumníkom Googlu) vyvíjajú empatické hlasové rozhrania, ktoré reagujú nielen na čo hovoríte, ale aj ako to hovoríte, s cieľom, aby konverzácie s AI pôsobili emocionálne vnímavejšie theguardian.com. Hume dokonca zriadil etickú radu, ktorá má usmerňovať vývoj „empatickej AI“ theguardian.com, čím uznáva potrebu opatrného pokroku. Na strane hardvéru sú kamery a senzorová technológia všadeprítomné a lacné, čo znamená, že je jednoduchšie než kedykoľvek predtým zabudovať schopnosti rozpoznávania emócií do telefónov, áut a inteligentných domácich zariadení.
  • Hlavný prúd prijatia a kontroverzie: Ako sa emocionálna AI zavádza, naráža aj na určité prekážky. Jeden z najznámejších príkladov: gigant v oblasti videokonferencií Zoom údajne zvažoval pridanie funkcií na detekciu emócií (napríklad informovanie hostiteľov stretnutí, či sú účastníci zaujatí alebo rozptýlení) – no po verejnej kritike týkajúcej sa súkromia Zoom v polovici roku 2022 oznámil, že nemá „žiadne plány“ implementovať takúto AI na sledovanie emócií. Podobne aj platforma na nábor zamestnancov HireVue začala používať AI na analýzu výrazu tváre uchádzačov o zamestnanie počas video pohovorov, ale do roku 2021 túto zložku analýzy tváre zrušila kvôli vedeckej kritike a obavám verejnosti. Tieto incidenty pripravili pôdu pre rok 2024, keď už samotná myšlienka rozpoznávania emócií v pracovných alebo spotrebiteľských aplikáciách vyvoláva zdvihnuté obočia (a nie tie, ktoré by mala AI sledovať). V správach naďalej vidíme obavy zo zneužitia: napríklad správy, že čínske technologické spoločnosti nasadzujú rozpoznávanie emócií na zamestnancoch, vyvolali medzinárodnú kritiku businessinsider.com. A zatiaľ čo niektorí predajcovia propagujú „AI na detekciu lži“ pre bezpečnosť, odborníci mnohé z nich vyvrátili ako len o málo lepšie než náhoda.
  • Regulačné opatrenia: Azda najväčším vývojom v roku 2024 je, že vlády začali zasahovať do oblasti emocionálnej AI. V máji 2024 Európska únia dokončila EU AI Act, rozsiahly zákon na reguláciu umelej inteligencie. Tento zákon najmä zakazuje používanie AI na rozpoznávanie emócií v reálnom čase v určitých kontextoch ako „neprijateľné riziko“ pre ľudské práva theguardian.com. Konkrétne, EÚ zakáže AI systémy, ktoré tvrdia, že dokážu odhadnúť emócie ľudí na pracoviskách, v školách alebo iných verejných inštitúciách (s úzkymi výnimkami, ako je zdravotná starostlivosť alebo bezpečnosť) legalblogs.wolterskluwer.com. Zákonodarcovia EÚ dospeli k záveru, že rozpoznávanie emócií v takýchto prostrediach je invazívne a nespoľahlivé a môže viesť k nespravodlivým výsledkom. (Urobili rozdiel medzi AI, ktorá iba identifikuje vonkajší výraz človeka – čo by mohlo byť povolené – a AI, ktorá by vyhlasovala, čo daná osoba cíti vnútorne, čo by bolo zakázané theguardian.com.) Tento právny postoj, jeden z prvých svojho druhu, odráža rastúci skepticizmus medzi tvorcami politík ohľadom platnosti a etiky emocionálnej AI. V USA neexistuje federálny zákaz, ale niektoré jurisdikcie zvažujú obmedzenia a ACLU a ďalšie organizácie za občianske práva vyzvali na zastavenie používania rozpoznávania emócií v polícii a zamestnaní aclu.org, businessinsider.com. Skutočnosť, že regulátori zaradili emocionálnu AI do jednej kategórie so sociálnym skórovaním a podprahovou manipuláciou (tiež zakázané EU Actom), vysiela jasný signál: v roku 2025 a neskôr pravdepodobne uvidíme prísnejšiu kontrolu a štandardy pre akúkoľvek AI, ktorá tvrdí, že dokáže čítať naše pocity.

Zhrnutie: posledný rok či dva boli kľúčové. AI na detekciu emócií je rozšírenejšia než kedykoľvek predtým, potichu preniká do zákazníckeho servisu, áut a aplikácií – a zároveň je viac spochybňovaná než kedykoľvek predtým, keď odborníci a regulátori šliapu na brzdu. Ako technológia dozrieva, očakávajte ešte viac debát o tom, či AI dokáže skutočne porozumieť ľudským emóciám, a ak áno, kto by mal mať túto moc. Tieto otázky nás privádzajú priamo k ďalšej téme: etickým úvahám.

Etické úvahy a obavy

Nárast AI na rozpoznávanie emócií vyvolal intenzívne etické diskusie. Čítanie niečích emócií nie je ako čítanie teplomera – zasahuje do osobných, často súkromných aspektov našich životov. Tu sú hlavné obavy, ktoré odborníci a obhajcovia zdôrazňujú:

  • Spoľahlivosť a vedecká platnosť: Základnou otázkou je, či tieto systémy skutočne fungujú tak, ako tvrdia. Ľudské emócie sú zložité, závislé od kontextu a nie vždy viditeľné na povrchu. Psychológovia upozorňujú, že neexistuje jednoduché jednoznačné prepojenie medzi výrazom tváre a vnútorným pocitom. Človek sa môže usmievať, keď je smutný, alebo mračiť, keď sa sústredí – výrazy sa líšia medzi jednotlivcami aj kultúrami. V roku 2019 rozsiahla revízia viac ako 1 000 štúdií pod vedením psychologičky Lisy Feldman Barrett dospela k záveru, že „emocionálny stav človeka nemožno spoľahlivo odvodiť len z pohybov tváre“ aclu.org. Uvádza názorný príklad: „Mračiaca sa tvár môže, ale nemusí byť prejavom hnevu… ľudia sa mračia, keď sú nahnevaní, ale aj keď sú zmätení alebo majú plynatosť!“aclu.org. Stručne povedané, kontext je pri emóciách nesmierne dôležitý a AI zvyčajne kontext nemá. Barrettová a ďalší tvrdia, že dnešné algoritmy sú veľmi dobré v detekcii pohybov tvárových svalov alebo intonácie hlasu, ale nemôžu skutočne vedieť, čo tieto prejavy emocionálne znamenajú aclu.org. Ako raz priamo povedala v rozhovore: „Neexistuje žiadne automatizované rozpoznávanie emócií. Najlepšie algoritmy dokážu rozpoznať výraz tváre, ale nie sú vybavené na to, aby zistili, čo znamená“ aclu.org. Táto skepsa je v vedeckej komunite rozšírená. Bez jasnej, všeobecne prijatej definície emócií aj medzi psychológmi je budovanie AI na ich rozpoznávanie na vratkých teoretických základoch theguardian.com. V praktickej rovine to prináša riziko nesprávnej interpretácie: ak AI nesprávne označí človeka za „nahnevaného“ alebo „klamára“ na základe zle prečítaného signálu, môže to viesť k nespravodlivým dôsledkom (označenie bezpečnostným systémom, zamietnutie pracovného pohovoru atď.). Jednoducho povedané, kritici tvrdia, že súčasná technológia rozpoznávania emócií je v najlepšom prípade len približná – a v najhoršom digitálna frenológia (paveda), najmä ak sa používa na posudzovanie jednotlivcov article19.org.
  • Zaujatosť a férovosť: Rovnako ako mnohé AI systémy, aj algoritmy na detekciu emócií môžu odrážať a dokonca zosilňovať zaujatosť prítomnú v ich tréningových dátach. Jedným z hlavných problémov je kultúrna a rasová zaujatosť. Ak je AI primárne trénovaná napríklad na západných subjektoch, ktoré prejavujú učebnicové výrazy, môže nesprávne interpretovať ľudí z iných etnických alebo kultúrnych prostredí. Existujú dôkazy, že sa to už deje. Štúdia z roku 2023 zistila, že niektoré komerčné systémy na rozpoznávanie emócií konzistentne hodnotili výrazy tváre černochov ako negatívnejšie alebo nahnevanejšie v porovnaní s inými skupinami theguardian.com. Inými slovami, neutrálny výraz na tvári černocha môže AI interpretovať ako „nahnevaný“, zatiaľ čo u bielej osoby by to neurobila – čo je znepokojujúca zaujatosť s jasnými dôsledkami napríklad pre bezpečnostné kontroly alebo hodnotenia na pracovisku theguardian.com. „Vaše algoritmy sú len také dobré, aký dobrý je tréningový materiál,“ poznamenáva Barrett. „Ak je váš tréningový materiál zaujatý, zakódujete túto zaujatosť do kódu.“ theguardian.com. Kultúra tiež ovplyvňuje, ako prejavujeme emócie: úsmev môže v rôznych kontextoch znamenať rôzne veci a gestá či tóny nie sú univerzálne. Erik Brynjolfsson z MIT varuje, že technológia rozpoznávania emócií musí byť citlivá na rozmanitosť: „Rozpoznať emócie na tvári Afroameričana môže byť pre stroj trénovaný na tvárach belochov náročné. A gestá či intonácia hlasu v jednej kultúre môžu znamenať niečo úplne iné v inej“ mitsloan.mit.edu. Ak sa tieto nuansy nezohľadnia, technológia môže systematicky nesprávne interpretovať alebo znevýhodňovať určité skupiny – v podstate zakódovať predsudky pod zámienkou „čítania emócií“. Zaujatosť sa netýka len demografie; existuje aj kontextová zaujatosť (napr. AI v hlučnom prostredí môže interpretovať zvýšené hlasy ako hnev, aj keď je len hlučno). Zabezpečiť férovosť v AI na rozpoznávanie emócií je obrovská výzva a doteraz mnohé systémy nepreukázali, že fungujú rovnako dobre pre všetkých ľudí.
  • Sledovanie a súkromie: Emotion AI často zahŕňa neustále monitorovanie výrazov, hlasov alebo fyziologických signálov ľudí – čo vyvoláva zrejmé varovné signály týkajúce sa súkromia. Obava je, že by to mohlo umožniť novú úroveň invazívneho sledovania, kde sa naše vnútorné emócie stanú sledovateľnými dátovými bodmi. Napríklad na pracoviskách by sa zamestnanci mohli cítiť, že sú pod emocionálnym mikroskopom, posudzovaní nielen podľa výkonu, ale aj podľa toho, či sa dostatočne usmievajú alebo znejú dostatočne „nadšene“. Toto nie je sci-fi; už sa to deje na niektorých miestach. Čínsky systém „úsmev za skóre“, spomenutý vyššie, je ukážkovým príkladom – pracovníci sa boja mračiť alebo vyzerať unavene, pretože ich sleduje AI a nahlási „zlý postoj“ šéfom businessinsider.com. Takéto praktiky vytvárajú utláčajúce prostredie a narúšajú osobnú autonómiu. Aj mimo pracoviska si predstavte verejné kamery, ktoré nielenže rozpoznajú vašu tvár, ale vás aj označia ako „nervózneho“ alebo „rozrušeného“, keď prechádzate okolo. Tieto údaje by mohli byť zneužité na profilovanie. Na rozdiel od čítania teplomera môže byť čítanie emócií hlboko manipulatívne – ľudia sa často snažia svoje skutočné pocity na verejnosti maskovať z dobrých dôvodov (súkromie, zdvorilosť) a keď ich AI rozoberá, pôsobí to orwellovsky. Ochrancovia súkromia poukazujú na to, že ľudia nedali súhlas na to, aby ich emócie skúmali kamery v nákupných centrách alebo policajné CCTV. Napriek tomu sa softvér na rozpoznávanie emócií pridáva do niektorých bezpečnostných systémov bez vedomia verejnosti. Je tu aj otázka bezpečnosti údajov: emocionálne údaje (videá tvárí, hlasové nahrávky) sú citlivé biometrické informácie. Ak sa zhromažďujú a ukladajú, kto ich chráni a na ako dlho? Únik alebo hacknutie emocionálnych údajov (napríklad nahrávky z terapeutických sedení alebo kamerové záznamy označené náladou osoby) by mohli byť hlboko škodlivé. Stručne povedané, premena našich emocionálnych životov na dátové toky predstavuje „mimoriadne silnú novú formu sledovania“, ako to uviedla jedna analýza Guardianu theguardian.com. Táto obava vedie k výzvam na prísne obmedzenia, kde sa takéto monitorovanie môže vykonávať.
  • Súhlas a autonómia: S otázkou súkromia úzko súvisí aj otázka súhlasu. Mali by ľudia musieť dať súhlas na to, aby AI analyzovala ich emócie? Mnohí tvrdia, že áno – emocionálna analýza je natoľko osobná, že si vyžaduje výslovné povolenie. Niektoré spoločnosti skutočne používajú opt-in modely. Napríklad, politika Affectiva pri testovaní reklám je zaznamenávať a analyzovať len tých divákov, ktorí dali súhlas a boli informovaní, a zakazujú používanie tejto technológie na tajné sledovanie alebo akúkoľvek identifikáciu jednotlivcov mitsloan.mit.edu. Nie každý dodávateľ je však taký prísny a v praxi sa zamestnanci alebo študenti nemusia cítiť, že môžu odmietnuť, ak zamestnávateľ alebo škola nariadi program monitorovania emócií (predstavte si, že by vám prikázali nosiť náramok na snímanie emócií v práci). To vyvoláva obavy z nátlaku. Budú musieť pracovníci v budúcnosti udržiavať určitý emocionálny prejav (napr. vždy znieť „šťastne“ pri hovoroch), pretože ich sleduje AI? To už zasahuje do otázok ľudskej dôstojnosti a slobody cítiť bez analýzy. Z etického hľadiska mnohí tvrdia, že jednotlivci musia mať kontrolu nad vlastnými emocionálnymi údajmi. Mali by ste mať právo ponechať si svoje emócie pre seba, alebo aspoň kontrolovať, kto/čo ich môže detegovať. Bez jasného súhlasu sa rozpoznávanie emócií stáva nechceným zásahom do nášho mentálneho súkromia – čo niektorí vedci nazývajú „mentálna suverenita“. Je povzbudivé, že nový zákon EÚ výslovne zakazuje AI na rozpoznávanie emócií na pracoviskách a v školách bez ohľadu na súhlas (kvôli nerovnováhe moci je skutočný dobrovoľný súhlas pochybný) williamfry.com, legalblogs.wolterskluwer.com. To naznačuje snahu chrániť ľudí pred nátlakom na emocionálnu transparentnosť. Ako sa táto technológia rozširuje, trvanie na súhlase – a možnosť vypnúť ju – môže byť kľúčové pre zachovanie osobnej autonómie.
  • Manipulácia a zneužitie: Ďalším etickým rozmerom je, ako by sa poznatky z emocionálnej AI mohli použiť na ovplyvňovanie alebo zneužívanie ľudí. Emócie poháňajú veľkú časť našich rozhodnutí a ak firmy alebo politickí aktéri dokážu zistiť naše pocity, môžu prispôsobiť správy tak, aby nás zasiahli na citlivých miestach. Nízko-technologickú verziu tohto sme videli v škandále Cambridge Analytica, kde boli údaje z Facebooku použité na psychologické profilovanie voličov a cielenie reklám na vyvolanie emocionálnych reakcií. Emocionálna AI by mohla takéto taktiky výrazne posilniť – v podstate umožniť „masovú emocionálnu manipuláciu“. Ako varuje Randi Williams z Algorithmic Justice League, „Keď máme AI, ktorá preniká do najľudskejších častí nás samých, existuje vysoké riziko, že jednotlivci budú manipulovaní na komerčný alebo politický zisk.“ theguardian.com. Napríklad marketingová AI si môže všimnúť, že sa v určitý večer cítite trochu skleslo (zistené cez vaše inteligentné domáce zariadenia) a aplikácia vám v tom zraniteľnom momente okamžite zobrazí reklamu na jedlo pre potešenie alebo nákupnú terapiu. Alebo autoritárska vláda by mohla použiť rozpoznávanie emócií pri televíznych prejavoch: ak obyvatelia nevyzerajú dostatočne nadšene, možno je čas zvýšiť propagandu alebo vyšetriť odporcov. Tieto scenáre znejú dystopicky, ale sú to práve tie prípady zneužitia, ktorým chcú odborníci zabrániť už teraz, skôr než nastanú. Aj v miernejších formách emocionálne postrkovanie vyvoláva etické otázky – je v poriadku, ak sa videohra zámerne snaží vystrašiť vás viac, keď vie, že sa bojíte, ako v príklade hororovej hry? Niektorí povedia, že pre zábavu je to v poriadku; iní sa obávajú psychologického dopadu. Základom je, že emocionálna AI poskytuje nový nástroj na ovplyvňovanie ľudského správania a bez regulácií alebo etických zábran by tento nástroj mohol byť použitý temným smerom (napr. „emocionálna manipulácia“ je výslovne uvedená ako zakázané použitie v etických zásadách Hume AI theguardian.com). Kľúčová je transparentnosť: ak sa emocionálne údaje používajú na ovplyvňovanie výsledkov (napríklad ak vás AI na pohovore odmietne, pretože si myslí, že vám chýbala „vášeň“), človek by o tom mal vedieť a mať možnosť to napadnúť.
  • Regulácia a zodpovednosť: Vzhľadom na všetky tieto obavy sa čoraz častejšie ozývajú výzvy na reguláciu AI na detekciu emócií. Zákaz EÚ v určitých oblastiach je jedným z prístupov – v podstate hovorí, že niektoré použitia sú neprípustné. Inde odborníci navrhli požiadavku prísnej validácie a auditu akýchkoľvek nasadených systémov AI na rozpoznávanie emócií, aby sa preukázalo, že sú presné a nestranné (čo je vysoká latka, ktorú mnohí nemusia splniť). Organizácie ako ACLU a Article 19 presadzovali úplné moratórium na rozpoznávanie afektu v citlivých oblastiach, označujúc ho za nevedecké a nezlučiteľné s ľudskými právami article19.org, businessinsider.com. Ďalším aspektom regulácie je ochrana údajov: keďže emocionálne údaje môžu byť považované za biometrické alebo zdravotné údaje, môžu spadať pod zákony o ochrane súkromia ako GDPR, ktoré vyžadujú prísny súhlas, obmedzenie účelu a bezpečnosť. Regulátori tiež diskutujú o tom, či by ľudia mali mať právo odmietnuť účasť na sledovaní emócií na verejnosti a právo nebyť hodnotení automatizovanými „emočnými skóre“. Na druhej strane niektoré priemyselné skupiny presadzujú štandardy, ktoré by umožnili AI na rozpoznávanie emócií používať zodpovedným spôsobom (napríklad IEEE skúmala etické smernice pre adaptívne systémy reagujúce na emócie). Je zrejmé, že technológia zatiaľ predbehla pravidlá, ale rok 2024 predstavuje zlomový bod. Vlády začínajú rozpoznávanie emócií vnímať ako osobitnú kategóriu AI, ktorá potrebuje dohľad. V nasledujúcich rokoch môžeme očakávať viac politík, ktoré sa budú snažiť vymedziť hranice toho, ako a kde môžu byť tieto nástroje použité – a zabezpečiť zodpovednosť tých, ktorí ich používajú. Napokon, ak AI systém urobí emocionálne hodnotenie, ktoré niekomu uškodí (napr. označí ho za „vysoké riziko“ bez dôvodu), kto je zodpovedný? Tieto pálčivé otázky stále čakajú na odpovede.

V konečnom dôsledku sa etika zjednodušuje na jednoduchý princíp: len preto, že môžeme sa pokúsiť čítať emócie pomocou AI, mali by sme to robiť? A ak áno, za akých podmienok? Zástancovia veria, že technológia má humánne a prospešné využitie (najmä so súhlasom a opatrnosťou), zatiaľ čo kritici sa obávajú, že samotný princíp je chybný a náchylný na zneužitie. To nás privádza k záverečnej časti, kde si vypočujeme názory odborníkov z oboch strán tejto debaty.

Perspektívy odborníkov

Keďže AI na detekciu emócií stojí na križovatke inovácií a kontroverzií, je poučné vypočuť si, čo hovoria popredné osobnosti v tejto oblasti. Odborníci sú rozdelení – niektorí vidia transformačný potenciál, iní vyzývajú na mimoriadnu opatrnosť. Tu je niekoľko pohľadov ich vlastnými slovami:

  • Optimisti a inovátori: Mnohí priekopníci afektívneho počítania tvrdia, že vybavenie strojov emocionálnou inteligenciou môže zásadne zlepšiť interakciu medzi človekom a strojom. „Premýšľajte o tom, ako komunikujete s inými ľuďmi; pozeráte sa im do tváre, sledujete ich telo a podľa toho meníte svoju interakciu,“ vysvetľuje Javier Hernandez, výskumník zo skupiny Affective Computing na MIT. „Ako môže stroj efektívne komunikovať, ak nepozná váš emocionálny stav?“ mitsloan.mit.edu. Táto skupina verí, že emocionálna AI môže urobiť technológie vnímavejšími, personalizovanejšími a dokonca súcitnejšími. Rana el Kaliouby, ktorá spoluzaložila Affectivu a presadzuje „humanizáciu technológií“, poukazuje na to, že naše emócie sú jadrom toho, ako sa rozhodujeme a nadväzujeme spojenia. Predstavuje si AI ako podporného partnera: „Paradigma nie je človek verzus stroj – je to naozaj stroj, ktorý rozširuje možnosti človeka,“ hovorí el Kaliouby a zdôrazňuje, že AI by mala rozširovať ľudské schopnosti, nie ich nahrádzať mitsloan.mit.edu. Podľa nej, ak nasadíme AI správnym spôsobom, mohla by napríklad pomôcť vodičom zostať v bezpečí, lekárom lepšie porozumieť pacientom alebo zákazníkom cítiť sa vypočutí. El Kaliouby je nadšená z využitia emocionálnej AI na dobré účely – často spomína projekty ako využitie emocionálnej analýzy na pomoc deťom s autizmom alebo na včasné odhalenie problémov s duševným zdravím. A napriek obavám, keď sa jej opýtali, či by sme vôbec mali túto technológiu mať, jej odpoveď je rozhodné áno. „Absolútne áno,“ povedala v roku 2024 – pretože popri rizikách „AI ponúka úžasné riešenia najväčších výziev ľudstva.“ asisonline.org Jej postoj, ako aj postoj mnohých v odvetví, je, že by sme nemali vylievať dieťa s vaničkou. Namiesto toho volajú po vývoji zodpovednej, na človeka zameranej emocionálnej AI – s dôrazom na dobrovoľnosť, transparentnosť a rozmanitosť – aby sa výhody (bezpečnejšie cesty, lepšia zdravotná starostlivosť, pútavejšie vzdelávanie atď.) mohli naplno prejaviť. Ako hovorí el Kaliouby, „Každé odvetvie prechádza transformáciou … s AI,“ a emocionálna AI, ak sa urobí správne, „môže tieto transformácie urobiť empatickejšími.“ asisonline.org Zástancovia uznávajú výzvy, no vo všeobecnosti sa domnievajú, že sa dajú zmierniť premysleným dizajnom a politikou, nie úplným opustením technológie.
  • Skeptici a kritici: Na druhej strane zbor vedcov a etikov vyzýva, aby sme spomalili alebo dokonca zastavili technológiu rozpoznávania emócií, varujúc, že stojí na chatrných vedeckých základoch a prináša neakceptovateľné riziká. Už sme počuli výskumom podložený skepticizmus profesorky Lisy Feldman Barrett, že výrazy tváre sa nedajú spoľahlivo priradiť k emóciám. Barrett priamo vyvracia tvrdenia mnohých dodávateľov: „Väčšina spoločností stále tvrdí, že sa môžete pozrieť na tvár a zistiť, či je niekto nahnevaný alebo smutný… To zjavne nie je pravda.“ theguardian.com Obáva sa, že bez ohľadu na dobré úmysly tieto systémy zlyhajú – a ľudia budú nesprávne posudzovaní. Ďalšou hlasnou kritičkou je Vidushi Marda z Article 19 (skupina za digitálne práva), ktorá skúmala nasadenie rozpoznávania emócií v Číne a uviedla, že tento odbor je „v zásade založený na nevedeckých predstavách“ a že nasadenie takýchto systémov vo veľkom je „hlboko neetické.“ businessinsider.com Ochrancovia súkromia ako Evan Selinger nazvali rozpoznávanie emócií „najnebezpečnejšou AI, o ktorej ste nikdy nepočuli,“ pričom tvrdia, že môže viesť k novým formám diskriminácie a manipulácie. A nejde len o akademikov: pochybnosti majú aj ľudia z technologického prostredia. V rozhovore pre TechCrunch Andrew Moore, bývalý šéf Google Cloud AI, upozornil, že AI schopná porozumieť emóciám je „od spoľahlivosti vzdialená minimálne desať rokov“ a že zneužitie predtým by mohlo podkopať dôveru v AI ako celok. Títo experti často odporúčajú prísne obmedzenia. ACLU zašla až tak ďaleko, že podporila zákazy, pričom analytik Daniel Kahn Gillmor napísal: „Minimálne by nikto nemal prísť o práva alebo živobytie na základe odhadu emócií AI“. Z ich pohľadu potenciálne škody – nesprávne zatknutia, zaujaté prijímanie do zamestnania, porušenie mentálneho súkromia – prevyšujú neisté prínosy. Tiež zdôrazňujú, že aj samotní ľudia majú problém správne čítať emócie iných naprieč kultúrami a kontextami, takže očakávať to od stroja je nezmysel. V podstate skeptici vyzývajú spoločnosť, aby stlačila pauzu, najprv požadovala pevné dôkazy a etické rámce a nezabúdala, že emócie sú hlboko ľudské – možno niečo, čo by sme nechceli, aby stroje analyzovali.

Je zaujímavé, že obe skupiny v konečnom dôsledku hľadajú lepšiu budúcnosť, no rozchádzajú sa v spôsobe. Optimisti sa zameriavajú na potenciálne prínosy (empatia v AI, zlepšenie pohody), zatiaľ čo skeptici sa sústreďujú na predchádzanie škodám (nespravodlivosť, strata súkromia). Existujú aj umiernení, ktorí uznávajú potenciál technológie, ale trvajú na prísnych ochranných opatreniach. Napríklad Erik Brynjolfsson obhajuje rozvoj AI na rozpoznávanie emócií premyslene, pričom hovorí: „je dôležité si uvedomiť, že ak sa používa premyslene, konečné prínosy môžu a mali by prevyšovať náklady“, no hneď dodáva, že musí byť „vhodná pre všetkých ľudí“ a kultúrne citlivá mitsloan.mit.edu. Tento stredný prístup pravdepodobne zahŕňa silnú reguláciu, transparentnosť zo strany firiem a pokračujúci výskum presnosti týchto systémov.

Na záver, umelá inteligencia, ktorá deteguje emócie, sa nachádza na fascinujúcom priesečníku technológií, psychológie a etiky. Jej zástancovia veria, že môže naše zariadenia a služby urobiť oveľa viac prispôsobené našim potrebám – od áut, ktoré nás upokoja, až po aplikácie, ktoré vedia, kedy zápasíme, a ponúknu pomoc. Jej kritici oprávnene varujú, že žiadna AI by nemala hrať terapeuta, sudcu ani špeha – čítať naše pocity spôsobmi, ktoré môžu zavádzať alebo utláčať. Pravda môže závisieť od toho, ako sa rozhodneme ju používať. K roku 2025 je AI na detekciu emócií prítomná a napreduje, no zároveň je pod prísnym dohľadom. Videli sme skutočné prínosy v určitých oblastiach (ako monitorovanie duševného zdravia a adaptívne vzdelávanie), ale aj skutočný odpor (nové zákony a zákazy v reakcii na zneužívanie).

Do budúcnosti bude musieť spoločnosť kráčať opatrnou cestou: vyžadovať pevné vedecké základy a spravodlivosť pri akýchkoľvek nástrojoch na snímanie emócií, vytvárať bezpečné súkromné priestory bez emocionálneho dohľadu a demokraticky rozhodovať, kde by mala byť hranica medzi užitočnou empatiou a škodlivým zásahom. Jedno je isté: táto debata sa len začína. AI sa možno zlepšuje v rozpoznávaní, či ste poslušní alebo nie – ale je na nás všetkých, aby sme zabezpečili, že táto mocná schopnosť bude využitá spôsobom, ktorý rešpektuje ľudskú dôstojnosť a zlepšuje naše životy, nie ich znehodnocuje.

Zdroje:

  • Gaudenz Boesch, „AI Emotion Recognition and Sentiment Analysis,“ Viso Blogviso.ai (10. október 2024) viso.ai
  • Noor Al Mazrouei, „Emotion AI: Transforming Human-Machine Interaction,“ TRENDS Research (17. február 2025) trendsresearch.org
  • Meredith Somers, „Emotion AI, explained,“ MIT Sloan (8. marec 2019) mitsloan.mit.edu
  • Julie Bort, „’Emotion AI’ may be the next trend for business software, and that could be problematic,“ TechCrunch (1. september 2024) techcrunch.com
  • Will Knight, „Experts Say ‘Emotion Recognition’ Lacks Scientific Foundation,“ ACLU (18. júl 2019) aclu.org
  • Oscar Holland, „Ste 80 % nahnevaný a 2 % smutný? Prečo je ‚emocionálna AI‘ plná problémov,“ The Guardian (23. jún 2024) theguardian.com
  • Valeria Vasquez a ďalší, „Zákaz technológií rozpoznávania emócií AI na pracovisku podľa zákona o AI,“ Wolters Kluwer – Global Workplace Law (feb. 2025) legalblogs.wolterskluwer.com
  • Cheryl Teh, „‚Každý úsmev, ktorý predstieraš‘ — systém rozpoznávania emócií AI dokáže posúdiť, akí ‚šťastní‘ sú čínski pracovníci v kancelárii,“ Business Insider (16. jún 2021) businessinsider.com
  • AIMultiple Research Team, „Top 10+ príkladov a prípadov použitia emocionálnej AI v roku 2025,“ AIMultiple (aktualizované 2. jún 2025) research.aimultiple.com
  • Sara Mosqueda, „El Kaliouby: Ľudia môžu využiť AI na zlepšenie sveta,“ Security Management Magazine – GSX Daily (24. sept. 2024) asisonline.org
  • Dartmouth College, „Aplikácia na telefón používa AI na detekciu depresie z mimiky tváre,“ Dartmouth News (27. feb. 2024) home.dartmouth.edu
AI Is Dangerous, but Not for the Reasons You Think | Sasha Luccioni | TED

Don't Miss

Lab Rats No More: How Organ-on-a-Chip Technology is Revolutionizing Drug Testing

Koniec laboratórnych potkanov: Ako technológia orgánov na čipe revolučne mení testovanie liekov

Každý rok sa na celom svete používa vo vedeckých laboratóriách
AI Stocks Skyrocket on Earnings and Deals – One Tech Giant Falters Amid Breakthroughs & New Rules

Akcie AI prudko rastú vďaka ziskom a dohodám – Jeden technologický gigant zaostáva uprostred prelomov a nových pravidiel

Zisky veľkých technologických firiem poháňajú rast akcií AI Vlna vynikajúcich