Kunstig intelligens handler ikke længere kun om at knuse tal eller genkende ansigter – den er ved at lære at læse hvordan vi har det. Den såkaldte følelsesgenkendende AI (også kendt som Emotion AI eller affektiv computing) bruger algoritmer til at analysere vores ansigtsudtryk, stemmetone, tekstbeskeder og endda kropssignaler for at udlede menneskelige følelser. Løftet er fristende: mere intuitive apps, empatiske robotter og personlige oplevelser, der reagerer på vores humør. Men efterhånden som denne teknologi bevæger sig fra forskningslaboratorier ud i arbejdspladser, skoler og offentlige rum, rejser det store spørgsmål. Hvordan fungerer disse AI-“tankelæsere” egentlig? Hvor bliver de brugt i dag? Og hvorfor er nogle eksperter lige så begejstrede for mulighederne, som andre er bekymrede for faldgruberne? I denne dybdegående rapport vil vi udforske, hvordan følelsesgenkendende AI fungerer, virkelige anvendelser på tværs af industrier, de nyeste udviklinger i 2024–2025, og de etiske bekymringer, den vækker – med ekspertindsigter og aktuelle fakta undervejs.
Hvad er følelsesgenkendende AI, og hvordan fungerer det?
Følelsesgenkendende AI refererer til algoritmer, der genkender og fortolker menneskelige følelser ud fra forskellige datakilder. Det handler grundlæggende om at give maskiner en form for følelsesmæssig intelligens. Forskere kalder ofte dette felt for affektiv computing. AI-systemerne forsøger at “læse” følelser gennem flere kanaler:
- Ansigtsanalyse: En af de mest almindelige metoder er at bruge computer vision til at analysere ansigtsudtryk. Et kamera fanger et billede (eller video) af en persons ansigt, og AI’en registrerer først ansigtet og nøglepunkter (øjne, øjenbryn, mund osv.). Derefter undersøger den, ved hjælp af deep learning (ofte convolutional neural networks), muskelbevægelser eller “mikroudtryk” og klassificerer ansigtsudtrykket i en følelseskategori viso.ai. Mange systemer er trænet til at genkende grundlæggende udtryk som glæde, tristhed, vrede, frygt, overraskelse, væmmelse og neutralitet botpenguin.com. For eksempel kan en smilende mund og krøllede øjne blive markeret som “glad”, mens en rynket pande kan være “vred” – selvom det, som vi skal se, ikke altid er så enkelt.
- Stemmeanalyse: Ud over hvad vi siger, kan hvordan vi siger det, udtrykke følelser. Tale-følelsesgenkendelses-algoritmer lytter til lydmønstre i en talers stemme – ting som tonehøjde, lydstyrke, kadence og tone. AI-modeller analyserer disse vokale træk (intonation, tryk, rytme osv.) for at udlede, om en person lyder begejstret, rolig, oprevet osv. botpenguin.com. For eksempel kan en dirrende, høj tone indikere frygt eller vrede, mens en langsom, flad tone kan antyde tristhed eller træthed. Nogle systemer opfanger endda specifikke ord eller verbale signaler (som et usikkert “jeg har det fint”), der korrelerer med følelsesmæssige tilstande.
- Tekstanalyse af følelser: Følelser udtrykkes også skriftligt. AI kan udføre natural language processing (NLP) på tekster – fra opslag på sociale medier til e-mails eller chatbeskeder – for at opdage stemning. Traditionel sentimentanalyse klassificerer tekst som positiv, negativ eller neutral. Nyere emotion AI går videre og identificerer specifikke følelser i tekst ved at se på ordvalg, kontekst og tegnsætning botpenguin.com. For eksempel vil “Jeg er helt vildt begejstret!” blive registreret som meget positiv (glad/opstemt), mens “Jeg føler mig så såret og alene…” måske vil blive markeret som trist eller fortvivlet. Store sprogmodeller og finjusterede klassificeringsværktøjer bruges til at analysere den følelsesmæssige tone bag vores ord.
- Andre biometriske signaler: Nogle avancerede systemer inddrager også fysiologiske og adfærdsmæssige signaler. Dette kan inkludere kropssprog (holdning, gestik), øjesporing (hvor du kigger og hvordan dine pupiller udvider sig), puls, hudledningsevne eller hjernebølger via wearables. Disse signaler kan antyde stress eller spænding – f.eks. kan forhøjet puls og svedige håndflader indikere angst. I banebrydende forskning kombinerer multimodal emotion AI ansigts, vokal og fysiologiske data for et mere fuldstændigt billede trendsresearch.org. For eksempel kan en bils førerovervågnings-AI bruge et kamera til at overvåge dit ansigt og en sensor i rattet til at måle din puls for at opdage tegn på træthed eller vejvrede.
Alle disse metoder involverer maskinlæring på store datasæt af menneskelige følelsesudtryk. AI-modellerne bliver “trænet” på eksempler – billeder af ansigter mærket med den viste følelse, lydklip mærket med talerens humør osv. Over tid lærer AI’en mønstre, der forbinder bestemte input (et bestemt smil, en stemmetone) med sandsynlige følelser. Det er i bund og grund mønstergenkendelse: AI’en føler ikke selv noget, men den laver et kvalificeret gæt om vores følelser baseret på de signaler, vi udsender.
Det er vigtigt at bemærke, at nuværende følelsesgenkendende AI’er som regel er begrænset til at genkende nogle få brede følelseskategorier eller arousal-niveauer. Menneskelige følelser er nuancerede og afhænger af konteksten, hvilket gør dette til en meget udfordrende opgave for AI. Ikke desto mindre forbedres teknologien hurtigt. Ved at kombinere computer vision, taleanalyse og NLP kan nutidens emotion AI udlede en persons følelsesmæssige tilstand med moderat nøjagtighed – under de rette betingelser. Som en rapport forklarede, gør integrationen af flere teknikker (ansigt, stemme, tekst) det muligt for maskiner at tolke menneskelige følelser “med større nøjagtighed,” hvilket får interaktioner til at føles mere naturlige og lydhøre trendsresearch.org. I de næste afsnit ser vi på, hvordan disse evner anvendes i den virkelige verden, og hvor langt de er nået i 2024–2025.
Virkelige anvendelser på tværs af industrier
Følelsesgenkendende AI er rykket ud af laboratoriet og ind i en række brancher. Her er nogle af de mest fremtrædende anvendelser og brugsscenarier fordelt på sektorer:
- Sundhed og velvære: Følelses-AI bliver testet som et værktøj til mental sundhed og patientpleje. For eksempel har forskere udviklet smartphone-apps, der overvåger brugernes ansigter og stemmer for tegn på depression eller angst home.dartmouth.edu. Et studie fra 2024 introducerede MoodCapture, en app der bruger telefonens kamera til at opdage tidlige symptomer på depression ved at analysere brugerens ansigtsudtryk, hver gang de låser deres telefon op – og identificerer humørændringer korrekt med omkring 75% nøjagtighed i forsøg home.dartmouth.edu. Terapeuter undersøger også AI, der lytter under rådgivningssessioner for at vurdere en patients følelsesmæssige tilstand ud fra stemmeleje, og potentielt kan advare, hvis nogen lyder mere og mere pressede. På hospitaler kan kameraer, der registrerer følelser, overvåge patienters smerte- eller stressniveau, når sygeplejersker ikke er til stede. Og for personer med autisme kan assistive følelses-AI hjælpe med at tolke andres udtryk – for eksempel en bærbar eller tablet-app, der giver et autistisk barn beskeder som “Mor er glad” eller “Far ser ked af det ud,” og hjælper dem med at lære følelsesmæssige signaler mitsloan.mit.edu.
- Markedsføring og kundeoplevelse: Virksomheder bruger emotion AI til at forstå forbrugerne på et dybere niveau. Annoncører kan teste reklamer eller produktvideoer med paneler af seere, der har givet samtykke til at blive optaget via webcam; AI’en analyserer derefter ansigtsreaktioner billede for billede for at se, hvilke øjeblikke der fik folk til at smile, grine eller se kede ud. Faktisk har omkring 25 % af Fortune 500-virksomhederne brugt emotion AI i reklameforskning til at måle publikums engagement mitsloan.mit.edu. En førende virksomhed på dette område, Affectiva (medstiftet af MIT-forskere), lader brands indfange seernes underbevidste, “viscerale” reaktioner på reklamer og korrelere dem med reel adfærd, såsom om de vil dele reklamen eller købe produktet mitsloan.mit.edu. Ud over reklamer undersøger detailhandlere emotion-detekterende kameraer i butikker for at vurdere kundetilfredshed (blev du irriteret eller glad af den serviceoplevelse?). Online forsøger chatbots med sentimentanalyse at tilpasse deres svar baseret på kundens humør – for eksempel ved at eskalere til en menneskelig agent, hvis en bruger lyder vred. Selv fysiske reklameskilte har prøvet emotion analytics: I Brasilien brugte et interaktivt metrosystem kamerafeeds til at klassificere pendlers ansigtsudtryk (glad, neutral, overrasket, utilfreds) og ændrede derefter reklameindholdet i realtid for bedre at matche stemningen blandt de tilstedeværende research.aimultiple.com.
- Uddannelse: Klasseværelser og e-læringsplatforme eksperimenterer med AI for at vurdere elevers følelser og opmærksomhed. Målet er at skabe responsive læringsmiljøer. For eksempel brugte et online undervisningsfirma i Indien følelsesgenkendelse via elevernes webcams til at spore engagement og træthed under liveundervisningresearch.aimultiple.comresearch.aimultiple.com. Systemet overvågede øjenbevægelser og ansigtsudtryk for at producere “opmærksomhedsscorer”, hvilket hjalp lærere med at identificere, hvornår eleverne mistede fokus. I nogle højteknologiske klasseværelser er kameraer blevet brugt (kontroversielt) til at scanne elevers ansigter for tegn på forvirring eller kedsomhed, så lærerne kan tilpasse deres undervisning legalblogs.wolterskluwer.com. Der er endda rapporter fra Kina om skoler, der afprøver ansigtsgenkendelseskameraer, som logger elevers følelsesmæssige tilstande (som glæde eller vrede) i løbet af dagen businessinsider.com. I teorien kunne sådanne værktøjer personalisere undervisningen – en tutorbot kunne for eksempel tilbyde opmuntring, hvis den registrerer frustration – men de rejser også debatter om overvågning (mere om det senere).
- Bilindustrien: Bilproducenter indbygger følelses-AI i køretøjer for at forbedre sikkerhed og køreoplevelse. Førerovervågningssystemer bruger kameraer på instrumentbrættet til at overvåge dit ansigt og din kropsholdning for at tjekke for træthed eller distraktion. Hvis AI’en ser, at dine øjenlåg hænger, eller din kropsholdning falder sammen (tegn på træthed), kan den give en advarsel. Luksusmærker går endnu videre ved at forsøge at vurdere førerens følelsesmæssige tilstand: for eksempel at opdage, om en fører er oprevet eller vred (road rage) og derefter gribe ind – måske ved at dæmpe musikken eller endda begrænse bilens hastighed mitsloan.mit.edu. Affectiva, nu en del af Smart Eye, har en automotive AI-platform, der overvåger både fører og passagerer. Den kan se, om føreren griner eller skændes, eller om passagererne er ængstelige, og justere bilens indstillinger derefter (forestil dig, at bilen strammer sikkerhedssystemerne, hvis den registrerer stress) mitsloan.mit.edu. I semiautonome biler kan følelses-AI måske afgøre, om du er for distraheret til at overtage kontrollen. Anvendelserne i bilindustrien handler alle om at bruge følelsesgenkendelse til at øge sikkerhed, komfort og personalisering på vejen.
- Underholdning og spil: Underholdning bliver mere interaktiv takket være emotion AI. Videospiludviklere er begyndt at lave spil, der reagerer på spillerens følelser. Et bemærkelsesværdigt eksempel er “Nevermind,” et psykologisk thriller-spil, der bruger spillerens webcam (eller en biofeedback-sensor) til at registrere stress – hvis det registrerer, at du bliver bange, bliver spillet faktisk mere udfordrende og kaster flere forskrækkelser ind, mens hvis du forbliver rolig, letter spillet op research.aimultiple.com. Dette skaber en dynamisk gyseroplevelse, der tilpasser sig dit frygtniveau. Inden for film og tv tester studier ansigts-tracking på testpublikum for at se følelsesmæssige reaktioner på scener (blev seerne virkelig overraskede af plottwistet? Fik komedien dem til at grine?). Der eksperimenteres også med personligt tilpasset indhold: forestil dig en streamingtjeneste, der kan bruge din laptops kamera til at observere dit ansigt og anbefale film, der passer til dit nuværende humør (nogle rejsesider har endda forsøgt at anbefale destinationer baseret på brugerens ansigtsudtryk research.aimultiple.com). Selvom udbredte “humørbaserede” indholdsanbefalinger stadig er eksperimentelle, lover sammensmeltningen af AI og underholdning nye former for medrivende, interaktive medier.
- Retshåndhævelse og sikkerhed: Følelsesgenkendelse bliver overvejet til sikkerhedsformål, selvom dette område er det mest omstridte. Nogle politiafdelinger har overvejet AI, der scanner live CCTV-optagelser eller optagelser fra kropskameraer for at markere “mistænkelig” adfærd eller potentiel aggression. For eksempel kan algoritmer analysere stemmeoptagelser for stress eller vrede for at identificere, hvornår en 911-opkalder eller en person i varetægt kan blive aggressiv. Der findes “aggressionsdetektorer” markedsført til offentlig sikkerhed, som lytter efter vrede toner eller råb for at advare sikkerhedspersonale om slagsmål. I Kina har et firma ved navn Taigusys udviklet et AI-overvågningssystem, der overvåger medarbejderes ansigter på kontorer en masse og hævder at kunne registrere, hvordan hver person har det – om en medarbejder er glad, neutral, vred eller stresset businessinsider.com. Systemet hævder endda at kunne se, om du forfalsker et smil, og det genererer rapporter om medarbejdere, der udviser for mange “negative” følelser, hvilket antyder, at de måske har brug for intervention eller har noget mistænkeligt i gang businessinsider.com. I fængsler er lignende teknologi blevet testet til at overvåge indsattes følelsesmæssige tilstande. Grænsekontrol-piloter i nogle lande har forsøgt AI-løgnedetektorer, der overvåger rejsendes mikro-udtryk for “tegn på bedrag”. Og politiafhøringer eksperimenterer med stemmeanalyse, der forsøger at afgøre, om en mistænkt er nervøs. Dog er der ingen politistyrker, der udelukkende stoler på disse værktøjer som bevis – selv fortalere siger, at de kun bør bruges som supplement. Som vi vil diskutere, opfordrer eksperter til ekstrem forsigtighed her, fordi forkerte aflæsninger (f.eks. at en AI fejlagtigt markerer en uskyldig person som “vred” eller “bedragerisk”) kan få alvorlige konsekvenser i retfærdigheds- og sikkerhedssammenhænge.
På tværs af alle disse industrier er den drivende idé, at hvis maskiner kan forstå vores følelser, kan de interagere med os mere naturligt og effektivt. En AI-tutor, der opfanger frustration, kan omformulere en lektion. En kundeservicebot, der hører utålmodighed i din stemme, kan straks tilkalde en menneskelig leder. En bil, der ved, at du er træt, kan opmuntre dig eller overtage kørslen. Emotion AI har grundlæggende til formål at gøre teknologien mere empatisk, så den tilpasser sig mennesker i stedet for at tvinge mennesker til at tilpasse sig maskiner trendsresearch.org. Det er en fascinerende grænse – og den udvikler sig hurtigt, som næste afsnit illustrerer med de nyeste udviklinger.
Seneste udviklinger og nyheder (2024–2025)
Følelsesgenkendende AI har oplevet hurtig udvikling de seneste to år, fra tekniske gennembrud til regulatorisk modstand. Her er nogle af de mest bemærkelsesværdige tendenser og nyheder:
- Stigende investeringer og startups: Erhvervslivet har fået øje på emotionel AI. Brancheanalytikere rapporterer, at “emotion AI” er ved at blive en varm trend inden for virksomhedsoftware, især i takt med at virksomheder implementerer flere chatbots og virtuelle assistenter, der har brug for følelsesmæssig bevidsthed techcrunch.com. En nylig PitchBook-forskningsrapport forudsiger, at emotion AI-adoptionen vil stige for at gøre interaktioner med AI mere menneskelige techcrunch.com. Venturekapital strømmer ind i denne sektor: for eksempel har et førende samtale-AI-firma, Uniphore, rejst over $600 millioner (inklusive en $400M-runde i 2022) for at udvikle AI, der kan aflæse kunders følelser under serviceopkald techcrunch.com. Talrige startups går ind i feltet – virksomheder som MorphCast, audEERING, Voicesense, SuperCEED, Siena AI, og andre bygger værktøjer til at analysere ansigts- og stemmesignaler i stor skala techcrunch.com. Markedsprognoser afspejler denne fremdrift: en rapport anslår, at det globale marked for følelsesdetektion og -genkendelse vil vokse fra omkring $3–4 milliarder i 2024 til over $7 milliarder inden for fem år technologyslegaledge.com, og en anden analyse forudser et spring til så meget som $173 milliarder i 2031 (dog varierer sådanne estimater) research.aimultiple.com. Det er tydeligt, at mange virksomheder ser kommercielle muligheder i AI, der kan aflæse følelser – hvad enten det er for at øge salget, forbedre kundetilfredsheden eller øge sikkerheden.
- Nye teknologiske muligheder: På forskningsfronten bliver AI bedre til at forstå nuancerede følelser. Et markant eksempel i 2024 var et projekt på University of Groningen, hvor man trænede en AI til at registrere sarkasme i talesprog theguardian.com. Ved at fodre systemet med manuskriptdialoger fra sitcoms som Friends og The Big Bang Theory, lærte forskerne det at genkende de vokale mønstre for sarkastisk tale (f.eks. overdrevet tonefald eller træg udtale). Modellen kunne identificere sarkasme i lyd med omkring 75% nøjagtighed theguardian.com. Dette er betydningsfuldt, fordi sarkasme er notorisk svært for algoritmer (og nogle gange mennesker!) at opfange, men det er nøglen til at forstå den sande stemning i kommunikation. Fremskridt på områder som dette indikerer, at følelses-AI bevæger sig ud over blot at registrere “glad vs. trist” og mod mere komplekse sociale signaler. Ligeledes bliver multimodale modeller bedre: vi ser AI, der kombinerer tekst, stemme og ansigtsdata for en mere kontekstbevidst aflæsning af følelser. Virksomheder som Hume AI (grundlagt af en tidligere Google-forsker) udvikler empatiske stemmegrænseflader, der reagerer ikke kun på hvad du siger, men også hvordan du siger det, med det formål at gøre AI-samtaler mere følelsesmæssigt afstemte theguardian.com. Hume har endda oprettet et etisk råd til at vejlede udviklingen af “empatisk AI” theguardian.com, hvilket anerkender behovet for forsigtig fremgang. På hardwaresiden er kamera- og sensorteknologi allestedsnærværende og billig, hvilket betyder, at det er nemmere end nogensinde at indbygge følelsesregistrerende funktioner i telefoner, biler og smarte hjem-enheder.
- Mainstream adoption og kontroverser: Efterhånden som emotion AI rulles ud, støder det også på nogle forhindringer. Et højtprofileret eksempel: videokonferencegiganten Zoom undersøgte angiveligt at tilføje følelsesgenkendelsesfunktioner (som at fortælle mødeværter, om deltagerne var engagerede eller distraherede) – men efter offentlig modstand på grund af privatlivets fred, annoncerede Zoom i midten af 2022, at de “ikke havde planer” om at implementere sådan emotion-tracking AI. Tilsvarende var rekrutteringsplatformen HireVue begyndt at bruge AI til at analysere jobansøgeres ansigtsudtryk i video-interviews, men i 2021 droppede de ansigtsanalysekomponenten på grund af videnskabelig kritik og offentlig bekymring. Disse hændelser danner baggrund for 2024, hvor selve idéen om følelsesgenkendelse i arbejdsplads- eller forbrugerapps vækker løftede øjenbryn (og ikke af den slags, en AI burde spore). I nyhederne ser vi fortsat bekymringer om misbrug: for eksempel har rapporter om, at kinesiske teknologivirksomheder bruger følelsesgenkendelse på medarbejdere, udløst international kritik businessinsider.com. Og mens nogle leverandører reklamerer med “løgnedetektion-AI” til sikkerhed, har eksperter afkræftet mange af disse som lidt bedre end tilfældigheder.
- Regulatoriske tiltag: Måske den største udvikling i 2024 er, at regeringer er begyndt at gribe ind over for emotion AI. I maj 2024 færdiggjorde Den Europæiske Union EU’s AI-forordning, en omfattende lov til regulering af kunstig intelligens. Bemærkelsesværdigt er det, at denne lov forbyder brugen af AI til realtidsfølelsesgenkendelse i visse sammenhænge som en “uacceptabel risiko” for menneskerettigheder theguardian.com. Konkret vil EU forbyde AI-systemer, der hævder at kunne udlede folks følelser på arbejdspladser, i skoler eller andre offentlige institutioner (med kun snævre undtagelser som sundhedspleje eller sikkerhed) legalblogs.wolterskluwer.com. EU-lovgivere konkluderede, at følelsesgenkendelse i sådanne sammenhænge er påtrængende og upålidelig, og kan føre til uretfærdige resultater. (De trak en grænse mellem, at en AI blot identificerer en persons udtrykte følelser – hvilket måske er tilladt – og at den faktisk erklærer, hvad personen føler indvendigt, hvilket ville være forbudt theguardian.com.) Denne juridiske holdning, en af de første af sin slags, afspejler voksende skepsis blandt beslutningstagere om emotion AI’s gyldighed og etik. I USA er der ikke et føderalt forbud, men nogle jurisdiktioner overvejer restriktioner, og ACLU samt andre borgerrettighedsgrupper har opfordret til at standse brugen af følelsesgenkendelse i politiarbejde og ansættelse aclu.org, businessinsider.com. Det faktum, at regulatorer har sat emotion AI i samme kategori som sociale pointsystemer og subliminal manipulation (også forbudt af EU-forordningen) sender et stærkt signal: 2025 og frem vil sandsynligvis byde på skærpet kontrol og standarder for enhver AI, der hævder at kunne aflæse vores følelser.
Sammenfattende har det seneste år eller to været afgørende. Følelsesdetekterende AI er mere udbredt end nogensinde, sniger sig stille ind i kundeservice, biler og apps – og er også mere omstridt end nogensinde, med eksperter og myndigheder, der træder på bremsen. Efterhånden som teknologien modnes, kan du forvente endnu flere debatter om, hvorvidt AI kan virkelig forstå menneskelige følelser, og hvis ja, hvem der får lov at bruge den magt. De spørgsmål leder os direkte videre til næste emne: de etiske overvejelser.
Etiske overvejelser og bekymringer
Fremkomsten af emotion-genkendende AI har udløst intense etiske diskussioner. At aflæse en persons følelser er ikke som at aflæse et termometer – det berører personlige, ofte private aspekter af vores liv. Her er de vigtigste bekymringer, eksperter og fortalere rejser:
Pålidelighed og videnskabelig gyldighed: Et grundlæggende spørgsmål er, om disse systemer faktisk fungerer som påstået. Menneskelige følelser er komplekse, afhænger af kontekst og er ikke altid synlige på overfladen. Psykologer advarer om, at der ikke er nogen simpel én-til-én sammenhæng mellem et ansigtsudtryk og en indre følelse. En person kan smile, når de er kede af det, eller se vred ud, når de koncentrerer sig – udtryk varierer mellem individer og kulturer. I 2019 førte psykologen Lisa Feldman Barrett en stor gennemgang af over 1.000 studier, som konkluderede, at “en persons følelsesmæssige tilstand ikke pålideligt kan udledes ud fra ansigtsbevægelser” alene aclu.org. Hun giver et levende eksempel: “Et vredt ansigt kan, men behøver ikke, være et udtryk for vrede… folk ser vrede ud, når de er vrede, men også når de er forvirrede eller endda har luft i maven!”aclu.org. Kort sagt, kontekst betyder enormt meget for følelser, og AI har typisk ikke kontekst. Barrett og andre mener, at nutidens algoritmer er meget gode til at opdage ansigtsmuskelbevægelser eller stemmeintonationer, men de kan ikke reelt vide, hvad de betyder følelsesmæssigt aclu.org. Som hun direkte sagde til en interviewer: “Der findes ikke automatiseret følelsesgenkendelse. De bedste algoritmer kan registrere et ansigtsudtryk, men de er ikke i stand til at udlede, hvad det betyder” aclu.org. Denne skepsis er udbredt i det videnskabelige samfund. Uden en klar, fælles definition af følelser – selv blandt psykologer – står udviklingen af AI til at identificere dem på usikker teoretisk grund theguardian.com. I praksis øger det risikoen for fejltolkning: hvis en AI fejlagtigt mærker en person som “vred” eller “utroværdig” på baggrund af et misforstået signal, kan det føre til uretfærdige konsekvenser (at blive markeret af sikkerhed, nægtet jobsamtale osv.). Kort sagt siger kritikere, at den nuværende teknologi til følelsesgenkendelse i bedste fald er et skøn – og i værste fald digital frenologi (pseudovidenskab), især når den bruges til at bedømme enkeltpersoner article19.org.I sidste ende koger etikken ned til et simpelt princip: bare fordi vi kan forsøge at aflæse følelser med AI, bør vi så gøre det? Og hvis ja, under hvilke betingelser? Tilhængere mener, at der findes humane og gavnlige anvendelser for teknologien (især med samtykke og omtanke), mens kritikere frygter, at selve præmissen er fejlbehæftet og let kan misbruges. Det bringer os til vores sidste afsnit, hvor vi hører direkte fra eksperter på begge sider af denne debat.
Perspektiver fra eksperter
Med følelsesdetekterende AI på innovations- og kontroversens skillevej er det oplysende at høre, hvad førende stemmer på området har at sige. Eksperter er uenige – nogle ser et transformativt potentiale, andre opfordrer til ekstrem forsigtighed. Her er nogle perspektiver med deres egne ord:
- Optimister og innovatører: Mange pionerer inden for affektiv computing hævder, at det at give maskiner følelsesmæssig intelligens kan forbedre menneske–maskine-interaktion markant. “Tænk på den måde, du interagerer med andre mennesker; du kigger på deres ansigter, du kigger på deres krop, og du ændrer din interaktion derefter,” forklarer Javier Hernandez, en forsker i MIT’s Affective Computing-gruppe. “Hvordan kan en maskine kommunikere effektivt, hvis den ikke kender din følelsesmæssige tilstand?” mitsloan.mit.edu. Denne lejr mener, at emotionel AI kan gøre teknologi mere lydhør, personlig og endda medfølende. Rana el Kaliouby, som var med til at grundlægge Affectiva og har været fortaler for at “humanisere teknologi”, påpeger, at vores følelser er kernen i, hvordan vi træffer beslutninger og forbinder os. Hun ser AI som en støttende partner: “Paradigmet er ikke menneske versus maskine – det er virkelig maskinen, der forstærker mennesket,” siger el Kaliouby og understreger, at AI skal forbedre menneskets evner, ikke erstatte dem mitsloan.mit.edu. Efter hendes mening, hvis vi implementerer AI på den rigtige måde, kunne det for eksempel hjælpe bilister med at forblive sikre, hjælpe læger med at forstå patienter eller hjælpe kunder med at føle sig hørt. El Kaliouby er begejstret for at bruge emotionel AI til det gode – hun nævner ofte projekter som at bruge følelsesanalyse til at hjælpe børn med autisme eller til at opdage mentale sundhedsproblemer tidligt. Og på trods af bekymringerne, når hun bliver spurgt, om vi overhovedet bør have denne teknologi, er hendes svar et beslutsomt ja. “Absolut ja,” sagde hun i 2024 – for sammen med risiciene, “tilbyder AI fantastiske løsninger på menneskehedens største udfordringer.” asisonline.org Hendes holdning, og den som mange i branchen deler, er, at vi ikke skal smide barnet ud med badevandet. I stedet opfordrer de til at udvikle ansvarlig, menneskecentreret emotionel AI – med fokus på tilvalg, gennemsigtighed og diversitet – så fordelene (sikrere veje, bedre sundhedspleje, mere engagerende uddannelse osv.) kan realiseres. Som el Kaliouby udtrykker det, “Hver industri bliver transformeret … med AI,” og emotionel AI, hvis det gøres rigtigt, “kan gøre disse transformationer mere empatiske.” asisonline.org Fortalere anerkender udfordringerne, men føler generelt, at disse kan afbødes gennem gennemtænkt design og politik, frem for at opgive teknologien helt.
- Skeptikere og kritikere: På den anden side opfordrer et kor af videnskabsfolk og etikere os til at sætte farten ned eller endda stoppe følelsesgenkendelsesteknologi, idet de advarer om, at den hviler på usikker videnskab og indebærer uacceptable risici. Vi har allerede hørt professor Lisa Feldman Barretts forskningsbaserede skepsis over for, at ansigtsudtryk pålideligt kan kortlægges til følelser. Barrett afviser direkte mange leverandørers påstande: “De fleste virksomheder hævder stadig, at man kan se på et ansigt og afgøre, om nogen er vrede eller kede af det… Det er tydeligvis ikke tilfældet.” theguardian.com Hendes bekymring er, at uanset om det er velment eller ej, vil disse systemer fejle – og folk vil blive fejlbedømt. En anden åbenmundet kritiker, Vidushi Marda fra Article 19 (en digital rettighedsgruppe), som har undersøgt implementering af følelsesgenkendelse i Kina, udtalte, at området er “grundlæggende forankret i uvidenskabelige idéer” og at udrulning af sådanne systemer i stor skala er “dybt uetisk.” businessinsider.com Privatlivsforkæmpere som Evan Selinger har kaldt følelsesgenkendelse “den farligste AI, du aldrig har hørt om,” og argumenterer for, at det kan føre til nye former for diskrimination og manipulation. Og det er ikke kun akademikere: selv teknologifolk har deres tvivl. I et interview med TechCrunch advarede Andrew Moore, tidligere chef for Google Cloud AI, om, at AI’s forståelse af følelser er “mindst et årti fra at være pålidelig” og at misbrug inden da kan underminere tilliden til AI generelt. Disse eksperter anbefaler ofte strenge begrænsninger. ACLU er gået så langt som til at støtte forbud, hvor policyanalytiker Daniel Kahn Gillmor skriver, “Som minimum bør ingen persons rettigheder eller livsgrundlag afhænge af en AI’s følelsesmæssige gætteri”. Fra deres perspektiv opvejer de potentielle skader – uberettigede anholdelser, forudindtaget rekruttering, krænkelser af mental privatliv – de usikre fordele. De påpeger også, at mennesker selv har svært ved at aflæse hinandens følelser korrekt på tværs af kulturer og kontekster, så at forvente, at en maskine kan gøre det, er tåbeligt. I bund og grund opfordrer skeptikerne samfundet til at trykke på pauseknappen, kræve solid dokumentation og etiske rammer først, og huske, at følelser er dybt menneskelige – måske ikke noget, vi ønsker at maskiner skal dissekere.
Det er interessant, at begge lejre i sidste ende søger en bedre fremtid, men adskiller sig i metoden. Optimister fokuserer på mulige gevinster (empati i AI, forbedret trivsel), mens skeptikere fokuserer på at forhindre skader (uretfærdighed, tab af privatliv). Der er også moderate imellem, som anerkender teknologiens potentiale, men insisterer på grundige sikkerhedsforanstaltninger. For eksempel argumenterer Erik Brynjolfsson for at udvikle følelses-AI omtænksomt, og siger “det vigtige at huske er, at når det bruges omtænksomt, kan og bør de endelige fordele være større end omkostningerne”, men han tilføjer straks, at det skal være “passende for alle mennesker” og kulturelt bevidst mitsloan.mit.edu. Denne mellemvej indebærer sandsynligvis stærk regulering, gennemsigtighed fra virksomheder og fortsat forskning i systemernes nøjagtighed.
Afslutningsvis befinder kunstig intelligens, der registrerer følelser, sig på et fascinerende krydsfelt mellem teknologi, psykologi og etik. Dens tilhængere mener, at den kan gøre vores enheder og tjenester langt mere opmærksomme på vores behov – fra biler, der beroliger os, til apps, der ved, hvornår vi kæmper, og tilbyder hjælp. Dens kritikere rejser berettigede advarsler om, at ingen AI bør agere terapeut, dommer eller spion – og aflæse vores følelser på måder, der kan vildlede eller undertrykke. Sandheden afhænger sandsynligvis af hvordan vi vælger at bruge den. Fra 2025 er følelsesregistrerende AI til stede og i udvikling, men også under nøje overvågning. Vi har set reelle fordele i visse nicher (som mental sundhedsovervågning og adaptiv uddannelse), men også reel modstand (nye love og forbud som reaktion på misbrug).
Fremadrettet skal samfundet navigere en omhyggelig vej: kræve solid videnskabelig forankring og retfærdighed i alle følelsesregistrerende værktøjer, skabe sikre private rum fri for følelsesmæssig overvågning og demokratisk beslutte, hvor grænsen skal gå mellem hjælpsom empati og skadelig indtrængen. Én ting er sikker: denne debat er kun lige begyndt. AI bliver måske bedre til at vide, om du er uartig eller artig – men det er op til os alle at sikre, at denne stærke evne bruges på måder, der respekterer menneskelig værdighed og forbedrer vores liv, frem for at forringe dem.
Kilder:
- Gaudenz Boesch, “AI Emotion Recognition and Sentiment Analysis,” Viso Blog – viso.ai (10. okt. 2024) viso.ai
- Noor Al Mazrouei, “Emotion AI: Transforming Human-Machine Interaction,” TRENDS Research (17. feb. 2025) trendsresearch.org
- Meredith Somers, “Emotion AI, explained,” MIT Sloan (8. mar. 2019) mitsloan.mit.edu
- Julie Bort, “’Emotion AI’ may be the next trend for business software, and that could be problematic,” TechCrunch (1. sep. 2024) techcrunch.com
- Will Knight, “Experts Say ‘Emotion Recognition’ Lacks Scientific Foundation,” ACLU (18. jul. 2019) aclu.org
- Oscar Holland, “Er du 80% vred og 2% trist? Hvorfor ‘emotionel AI’ er fyldt med problemer,” The Guardian (23. juni 2024) theguardian.com
- Valeria Vasquez m.fl., “Forbuddet mod AI-teknologier til følelsesgenkendelse på arbejdspladsen under AI-forordningen,” Wolters Kluwer – Global Workplace Law (feb. 2025) legalblogs.wolterskluwer.com
- Cheryl Teh, “‘Every smile you fake’ — et AI-system til følelsesgenkendelse kan vurdere, hvor ‘glade’ Kinas arbejdere er på kontoret,” Business Insider (16. juni 2021) businessinsider.com
- AIMultiple Research Team, “Top 10+ eksempler & anvendelsestilfælde af emotionel AI i 2025,” AIMultiple (opdateret 2. juni 2025) research.aimultiple.com
- Sara Mosqueda, “El Kaliouby: Mennesker kan udnytte AI til at forbedre verden,” Security Management Magazine – GSX Daily (24. sept. 2024) asisonline.org
- Dartmouth College, “Telefonapp bruger AI til at opdage depression ud fra ansigtsudtryk,” Dartmouth News (27. feb. 2024) home.dartmouth.edu