Kunstig intelligens handlar ikkje lenger berre om å knuse tal eller kjenne att ansikt – no lærer ho å lese korleis vi føler oss. Såkalla kjensle-gjenkjennande KI (òg kjent som Emotion AI eller affektiv databehandling) brukar algoritmar for å analysere ansiktsuttrykka våre, stemmeleie, tekstmeldingar og til og med kroppssignal for å tolke menneskelege kjensler. Løftet er freistande: meir intuitive appar, empatiske robotar og personlege opplevingar som reagerer på humøret vårt. Men etter kvart som denne teknologien flyttar seg frå forskingslaboratoria og ut i arbeidslivet, skular og offentlege rom, reiser det store spørsmål. Korleis fungerer eigentleg desse KI-«tankelesarane»? Kvar vert dei brukte i dag? Og kvifor er somme ekspertar like begeistra for moglegheitene som andre er uroa for fallgruvene? I denne grundige rapporten skal vi utforske korleis kjensle-gjenkjennande KI fungerer, reelle bruksområde på tvers av bransjar, dei siste utviklingane i 2024–2025, og dei etiske utfordringane teknologien vekkjer – med ekspertinnsikt og oppdaterte fakta undervegs.
Kva er kjensle-gjenkjennande KI, og korleis fungerer det?
Kjensle-gjenkjennande KI viser til algoritmar som gjenkjenner og tolkar menneskelege kjensler frå ulike datakjelder. Det handlar i praksis om å gje maskiner ei form for emosjonell intelligens. Forskarar kallar ofte dette feltet affektiv databehandling. KI-systema prøver å «lese» kjensler gjennom fleire kanalar:
- Ansiktsanalyse: Ein av dei vanlegaste metodane er å bruke datamaskinsyn for å analysere ansiktsuttrykk. Eit kamera fangar eit bilete (eller video) av ansiktet til ein person, og KI-en oppdagar først ansiktet og sentrale punkt (auge, augebryn, munn, osb.). Deretter, ved hjelp av djup læring (ofte konvolusjonsnevrale nettverk), undersøker ho muskelrørsler eller «mikro-uttrykk» og klassifiserer ansiktsuttrykket i ein kjenslekategori viso.ai. Mange system er trena til å kjenne att grunnleggjande uttrykk som glede, sorg, sinne, frykt, overrasking, avsky og nøytralitet botpenguin.com. Til dømes kan ein smilande munn og rynka auge bli tolka som «glad», medan ei rynka panne kan vere «sint» – men som vi skal sjå, er det ikkje alltid så enkelt.
- Stemmeanalyse: I tillegg til kva vi seier, kan korleis vi seier det formidle kjensler. Tale-kjenslegjenkjenning-algoritmar lyttar til lydmønster i stemma til ein talar – ting som tonehøgd, volum, rytme og tonefall. KI-modellar analyserer desse vokale eigenskapane (intonasjon, trykk, rytme, osb.) for å tolke om ein person høyrest oppglødd, roleg, opprørt, og så vidare botpenguin.com. Til dømes kan ein skjelvande, lys tone tyde på frykt eller sinne, medan ein sakte, monoton tone kan tyde på sorg eller trøyttleik. Nokre system plukkar til og med opp spesifikke ord eller verbale signal (som eit skjelvande «Det går bra») som samsvarar med kjensletilstandar.
- Tekstanalyse av kjensler: Kjensler kjem òg til uttrykk i skrift. KI kan utføre naturleg språkprosessering (NLP) på tekstar – frå sosiale medieinnlegg til e-postar eller chatmeldingar – for å oppdage kjensler. Tradisjonell kjensleanalyse klassifiserer tekst som positiv, negativ eller nøytral. Nyare kjensle-KI går lenger og identifiserer spesifikke kjensler frå tekst ved å sjå på ordval, kontekst og teiknsetjing botpenguin.com. Til dømes vil “Eg er heilt i ekstase!” bli registrert som svært positiv (glad/opphissa), medan “Eg føler meg så såra og åleine…” kan bli flagga som trist eller opprørt. Store språkmodellar og spesialtrente klassifiserarar blir brukte for å tolke den emosjonelle tonen bak orda våre.
- Andre biometriske signal: Nokre avanserte system inkluderer òg fysiologiske og åtferdsmessige signal. Dette kan vere kroppsspråk (haldning, rørsler), augefølging (kvar du ser og korleis pupillane utvidar seg), puls, hudleiing eller hjernebølgjer via berbare einingar. Desse signala kan tyde på stress eller opphisselse – til dømes kan høg puls og sveitte hender tyde på angst. I banebrytande forsking kombinerer multimodal kjensle-KI ansikts, stemme og fysiologiske data for eit meir komplett bilete trendsresearch.org. Til dømes kan ein bil sin førarovervåkings-KI bruke eit kamera for å sjå på ansiktet ditt og ein sensor i rattet for å måle pulsen din, for å oppdage teikn på trøyttleik eller veg-raseri.
Alle desse metodane involverer maskinlæring på store datasett av menneskelege kjensleuttrykk. KI-modellane blir “trente” på døme – bilete av ansikt merkte med kjensla som blir vist, lydklipp merkte med talaren sitt humør, osv. Over tid lærer KI-motoren mønster som knyter visse input (eit spesielt smil, ein stemmetone) til sannsynlege kjensler. Det er i hovudsak mønstergjenkjenning: KI-en kjenner ikkje noko sjølv, men gjer eit kvalifisert gjet om kjenslene våre basert på signala vi gir frå oss.
Det er viktig å merke seg at dagens kjensle-gjenkjennande KI-ar vanlegvis er avgrensa til å kjenne att nokre få breie kjenslekategoriar eller opphissingsnivå. Menneskelege kjensler er nyanserte og avhengige av kontekst, noko som gjer dette til ei svært krevjande oppgåve for KI. Likevel blir teknologien raskt betre. Ved å kombinere datamaskinsyn, stemmeanalyse og NLP kan dagens kjensle-KI tolke ein person sin emosjonelle tilstand med moderat nøyaktigheit – under rette forhold. Som ein rapport forklarte, gjer integrering av fleire teknikkar (ansikt, stemme, tekst) at maskiner kan tolke menneskelege kjensler “med større nøyaktigheit,” slik at interaksjonar kjennest meir naturlege og responsive trendsresearch.org. I dei neste avsnitta skal vi sjå på korleis desse evnene blir brukte i den verkelege verda, og kor langt dei har kome per 2024–2025.
Bruksområde i den verkelege verda på tvers av bransjar
Kjensle-gjenkjennande AI har flytta seg ut frå laboratoriet og inn i ei rekkje bransjar. Her er nokre av dei mest framståande bruksområda og brukstilfella etter sektor:
- Helse og velvære: Kjensle-AI blir testa som eit verktøy for mental helse og pasientomsorg. Til dømes har forskarar utvikla smarttelefonappar som overvakar brukarar sine ansikt og stemme for teikn på depresjon eller angst home.dartmouth.edu. Ei studie frå 2024 introduserte MoodCapture, ein app som brukar telefonkameraet til å oppdage tidlege symptom på depresjon ved å analysere brukarens ansiktsuttrykk kvar gong dei låser opp telefonen – og identifiserer humørsvingingar med om lag 75 % nøyaktigheit i forsøk home.dartmouth.edu. Terapeutar utforskar òg AI som lyttar under samtaletimar for å vurdere pasienten sin kjensletilstand ut frå stemmeleie, og kan varsle dersom nokon høyrest meir og meir opprørt ut. På sjukehus kan kamera som oppdagar kjensler overvake pasientane sitt smerte- eller stressnivå når sjukepleiarar ikkje er til stades. Og for personar med autisme kan assisterande kjensle-AI hjelpe med å tolke andre sine uttrykk – til dømes ein bærbar eller nettbrett-app som gir eit autistisk barn meldingar som “Mamma er glad” eller “Pappa ser sint ut,” og hjelper dei å lære seg kjensleteikn mitsloan.mit.edu.
- Marknadsføring og kundeoppleving: Selskap bruker emosjons-KI for å forstå forbrukarar på eit djupare nivå. Annonsørar kan teste reklamefilmar eller produktvideoar med panel av sjåarar som har gitt samtykke til å bli filma via webkamera; KI-en analyserer deretter ansiktsreaksjonar bilde for bilde for å sjå kva for augneblink som fekk folk til å smile, le eller sjå ut som dei kjeda seg. Faktisk har omtrent 25 % av Fortune 500-selskapa brukt emosjons-KI i reklameforsking for å måle publikumsengasjement mitsloan.mit.edu. Eit leiande firma på dette området, Affectiva (medgrunna av MIT-forskarar), lar merkevarer fange opp sjåarane sine underbevisste, “viscerale” reaksjonar på reklame og korrelere desse med faktisk åtferd, som om dei vil dele reklamen eller kjøpe produktet mitsloan.mit.edu. Ut over reklame utforskar butikkar kamera med emosjonsdeteksjon for å måle kundetilfredsheit (gjorde den serviceopplevinga deg irritert eller glad?). På nett prøver chatbottar med sentimentanalyse å tilpasse svara sine etter kundens humør – til dømes ved å eskalere til eit menneskeleg kundesenter om brukaren høyrest sint ut. Til og med fysiske reklameplakatar har prøvd emosjonsanalyse: I Brasil brukte eit interaktivt reklamesystem på T-banen kamerafeed for å klassifisere uttrykka til pendlarar (glad, nøytral, overraska, misnøgd) og endra deretter reklameinnhaldet i sanntid for å passe betre til stemninga i mengda research.aimultiple.com.
- Utdanning: Klasserom og e-læringsplattformer eksperimenterer med KI for å vurdere elevanes følelsar og merksemd. Målet er å skape responsive læringsmiljø. Til dømes brukte eit nettbasert leksehjelpselskap i India følelsesgjenkjenning via elevane sine webkamera for å spore engasjement og trøyttleik under direktesendte timarresearch.aimultiple.comresearch.aimultiple.com. Systemet overvaka augebevegelsar og ansiktsuttrykk for å lage “merksemdspoeng”, som hjelpte lærarar å identifisere når elevane mista fokus. I nokre høgteknologiske klasserom har kamera blitt brukt (kontroversielt) til å skanne elevansikt for teikn på forvirring eller kjedsomheit, slik at lærarar kan tilpasse undervisninga legalblogs.wolterskluwer.com. Det finst til og med rapportar frå Kina om skular som testar ut ansiktsgjenkjenningskamera som loggfører elevane sine følelsestilstandar (som lykke eller sinne) gjennom dagen businessinsider.com. I teorien kan slike verktøy gjere undervisninga meir personleg – ein tutorbot kan til dømes gi oppmuntring om den merkar frustrasjon – men dei reiser òg debattar om overvaking (meir om det seinare).
- Bilindustri: Bilprodusentar bygg inn følelses-KI i køyretøy for å betre tryggleik og køyreoppleving. System for førarovervaking brukar kamera på dashbordet for å overvake ansikt og haldning, og sjekkar for teikn på trøyttleik eller distraksjon. Om KI-en ser at augeloka di fell saman eller haldninga blir slapp (teikn på trøyttleik), kan den gi ein alarm. Luksusmerke går endå lenger ved å prøve å vurdere førarens emosjonelle tilstand: til dømes å oppdage om ein førar er opprørt eller sint (aggressiv køyring) og så gripe inn – kanskje dempe musikken eller til og med avgrense farten på bilen mitsloan.mit.edu. Affectiva, no ein del av Smart Eye, har ein bil-KI plattform som overvaker både førar og passasjerar. Den kan sjå om føraren ler eller kranglar, eller om passasjerane er urolege, og justere bilinnstillingane deretter (tenk deg at bilen strammar tryggleikssystema om den merkar stress) mitsloan.mit.edu. I semi-autonome bilar kan følelses-KI avgjere om du er for distrahert til å ta over kontrollen. Bruksområda i bilindustrien handlar om å bruke følelsesgjenkjenning for å betre tryggleik, komfort og personleg tilpassing på vegen.
- Underhaldning og spel: Underhaldning blir meir interaktiv takka vere emosjons-AI. Dataspelutviklarar har byrja å lage spel som responderer på spelaren sine kjensler. Eit merkeleg døme er “Nevermind,” eit psykologisk thriller-spel som brukar spelaren sitt webkamera (eller ein biofeedback-sensor) for å oppdage stress – om det merkar at du blir redd, blir spelet faktisk meir utfordrande og kastar fleire skremmande element på deg, medan om du held deg roleg, blir spelet lettare research.aimultiple.com. Dette skapar ei dynamisk skrekkoppleving som tilpassar seg frykt-nivået ditt. I film og TV testar studio ansiktssporing på testpublikum for å sjå emosjonelle reaksjonar på scener (vart plottvisten verkeleg overraskande? Fekk komedien folk til å le?). Det blir òg utforska personleg tilpassa innhald: tenk deg ein straumeteneste som kan bruke kameraet på laptopen din til å observere ansiktet ditt og tilrå filmar som passar humøret ditt akkurat no (nokre reise-nettstader har til og med prøvd å tilrå reisemål basert på brukarens ansiktsuttrykk research.aimultiple.com). Sjølv om utbreidde “humørbaserte” tilrådingar framleis er på eksperimentstadiet, lovar samansmeltinga av AI og underhaldning nye former for oppslukande, interaktiv media.
- Politi og tryggleik: Kjenslegjenkjenning blir vurdert for tryggleiksformål, sjølv om dette er det mest omstridde området. Nokre politietatar har vurdert AI som skannar direkte CCTV-opptak eller opptak frå kroppskamera for å flagge “mistenkeleg” åtferd eller potensiell aggresjon. Til dømes kan algoritmar analysere lydopptak for stress eller sinne for å identifisere når ein 911-innringar eller ein person i varetekt kan bli aggressiv. Det finst “aggresjonsdetektorar” som blir marknadsført for offentleg tryggleik og som lyttar etter sinte tonar eller roping for å varsle tryggleiken om slåstkampar. I Kina har eit selskap kalla Taigusys utvikla eit AI-overvakingssystem som overvakar tilsette sine ansikt på kontor en masse og hevdar å kunne oppdage korleis kvar person føler seg – om ein tilsett er glad, nøytral, sint eller stressa businessinsider.com. Systemet påstår til og med at det kan vite om du feikar eit smil, og det lagar rapportar om arbeidarar som viser for mange “negative” kjensler, og antydar at dei kanskje treng oppfølging eller kan vere mistenkelege businessinsider.com. I fengsel har liknande teknologi blitt testa for å overvake innsatte sine emosjonelle tilstandar. Grensekontroll-pilotar i nokre land har prøvd AI-løgndetektorar som ser etter “teikn på løgn” i reisande sine mikro-uttrykk. Og politiavhøyr eksperimenterer med stemmeanalyse som prøver å avgjere om ein mistenkt er nervøs. Likevel er det ingen politistyrkar som brukar desse verktøya som einaste bevis – sjølv tilhengjarar meiner dei berre bør vere eit supplement. Som vi skal diskutere, åtvarar ekspertar sterkt her fordi feiltolkingar (t.d. at AI feilaktig flaggar ein uskuldig person som “sint” eller “løgnerisk”) kan få alvorlege konsekvensar i retts- og tryggleikssamanhengar.
På tvers av alle desse bransjane er hovudideen at dersom maskiner kan forstå kjenslene våre, kan dei samhandle med oss meir naturleg og effektivt. Ein AI-lærar som merkar frustrasjon kan omformulere ei leksjon. Ein kundeservicebot som høyrer utolmod i stemma di kan straks tilkalle ein menneskeleg leiar. Ein bil som veit at du er trøytt kan oppmuntre deg eller ta over køyringa. Emotion AI har i hovudsak som mål å gjere teknologi meir empatisk, slik at ho tilpassar seg menneske i staden for å tvinge menneske til å tilpasse seg maskiner trendsresearch.org. Det er ein fascinerande front – og det går raskt framover, slik neste avsnitt viser med dei siste utviklingane.
Siste utviklingar og nyheiter (2024–2025)
Kjensle-gjenkjennande AI har hatt rask utvikling dei siste to åra, frå tekniske gjennombrot til reguleringsmotstand. Her er nokre av dei mest merkbare trendane og nyheitene nyleg:
- Sterk aukande investeringar og oppstartsselskap: Forretningsverda har retta blikket mot emosjonell KI. Bransjeanalytikarar rapporterer at “emotion AI” er i ferd med å bli ein het trend innan bedriftsprogramvare, spesielt etter kvart som selskap tek i bruk fleire chatbotar og virtuelle assistentar som treng emosjonell medvit techcrunch.com. Ein fersk rapport frå PitchBook spår at bruken av emosjonell KI vil auke for å gjere samhandlinga med KI meir menneskeleg techcrunch.com. Risikokapital strøymer inn i denne sektoren: til dømes har det leiande samtale-KI-selskapet Uniphore henta inn over $600 millionar (inkludert ein runde på $400M i 2022) for å utvikle KI som kan lese kundekjensler under tenestetelefonar techcrunch.com. Ei rekkje oppstartsselskap går inn i feltet – selskap som MorphCast, audEERING, Voicesense, SuperCEED, Siena AI, og andre byggjer verktøy for å analysere ansikts- og stemmeuttrykk i stor skala techcrunch.com. Marknadsprognosar speglar denne utviklinga: ein rapport anslår at den globale marknaden for emotion detection and recognition vil vekse frå rundt 3–4 milliardar dollar i 2024 til over 7 milliardar innan fem år technologyslegaledge.com, og ei anna analyse spår ein vekst opp mot heile 173 milliardar dollar innan 2031 (sjølv om slike anslag varierer) research.aimultiple.com. Det er tydeleg at mange verksemder ser eit kommersielt potensial i KI som kan tolke kjensler – anten for å auke sal, betre kundetilfredsheit eller styrkje tryggleiken.
- Ny teknologiske evner: På forskingsfronten blir KI betre til å forstå nyanserte kjensler. Eit slående døme i 2024 var eit prosjekt ved Universitetet i Groningen der ein trente opp ein KI til å oppdage sarkasme i tala språk theguardian.com. Ved å mate systemet med manusbaserte dialogar frå situasjonskomediar som Friends og The Big Bang Theory, lærte forskarane det å kjenne att stemmemønster for sarkastisk tale (t.d. overdriven tone eller slepande uttale). Modellen kunne identifisere sarkasme i lyd med om lag 75 % nøyaktigheit theguardian.com. Dette er viktig fordi sarkasme er berykta vanskeleg for algoritmar (og av og til menneske!) å fange opp, men det er avgjerande for å forstå ekte meining i kommunikasjon. Framsteg på slike område viser at kjensle-KI går vidare enn berre “glad vs. trist”-deteksjon og mot meir komplekse sosiale signal. Likeeins blir multimodale modellar betre: vi ser KI som kombinerer tekst, stemme og ansiktsdata for ei meir kontekstbevisst kjensleavlesing. Selskap som Hume AI (starta av ein tidlegare Google-forskar) utviklar empatiske stemmegrensesnitt som svarar ikkje berre på kva du seier, men korleis du seier det, med mål om å gjere KI-samtalar meir kjenslemessig tilpassa theguardian.com. Hume har til og med oppretta eit etikkutval for å styre utviklinga av “empatisk KI” theguardian.com, og erkjenner behovet for forsiktig framgang. På maskinvaresida er kamera- og sensorteknologi allstadnærverande og billeg, noko som gjer det lettare enn nokon gong å byggje inn kjensle-gjenkjenning i telefonar, bilar og smarthus-einingar.
- Mainstream-adopsjon og kontroversar: Etter kvart som emosjons-AI vert teke i bruk, møter ho òg nokre hindringar. Eit høgprofilert døme: videokonferansegiganten Zoom skal ha vurdert å leggje til funksjonar for å oppdage kjensler (som å fortelje møtevertar om deltakarane var engasjerte eller distraherte) – men etter offentleg motstand mot personvern, kunngjorde Zoom sommaren 2022 at dei ikkje hadde “planar” om å ta i bruk slik AI for sporing av kjensler. På same måte hadde rekrutteringsplattformen HireVue byrja å bruke AI for å analysere ansiktsuttrykka til jobbsøkjarar i videointervju, men i 2021 fjerna dei denne ansiktsanalysen etter vitskapleg kritikk og offentleg uro. Desse hendingane legg grunnlaget for 2024, der sjølve tanken på kjenslegjenkjenning i arbeidslivet eller forbrukarappar vekkjer augebryn (og ikkje av den typen ein AI bør spore). I nyheitsbiletet ser vi stadig bekymringar for misbruk: til dømes har rapportar om at kinesiske teknologiselskap brukar kjenslegjenkjenning på tilsette, fått internasjonal kritikk businessinsider.com. Og sjølv om nokre leverandørar reklamerer for “løgnedeteksjons-AI” til tryggleik, har ekspertar avkrefta mange av desse som lite betre enn tilfeldigheit.
- Regulatoriske grep: Kanskje den største utviklinga i 2024 er at styresmaktene har begynt å gripe inn i emosjons-AI. I mai 2024 ferdigstilte Den europeiske union EU AI Act, ein omfattande lov for å regulere kunstig intelligens. Merkverdig nok forbyr denne lova bruk av AI for sanntids emosjonsgjenkjenning i visse samanhengar som ein “uakseptabel risiko” for menneskerettane theguardian.com. Konkret vil EU forby AI-system som påstår å kunne tolke folks emosjonar på arbeidsplassar, skular eller andre offentlege institusjonar (med berre snevre unntak som helsevesen eller tryggleik) legalblogs.wolterskluwer.com. EU-lovgivarane konkluderte med at emosjonsgjenkjenning i slike settingar er invaderande og upåliteleg, og kan føre til urettferdige utfall. (Dei trekte eit skilje mellom at ein AI berre identifiserer nokon sitt ytre uttrykk – noko som kan bli tillate – mot faktisk å erklære kva den personen føler på innsida, som ville bli forbode theguardian.com.) Dette juridiske standpunktet, eit av dei første i sitt slag, reflekterer aukande skepsis blant politikarar til emosjons-AI sin validitet og etikk. I USA finst det ikkje noko føderalt forbod, men enkelte jurisdiksjonar vurderer restriksjonar, og ACLU og andre borgarrettsgrupper har bede om å stanse bruk av emosjonsgjenkjenning i politiarbeid og arbeidsliv aclu.org, businessinsider.com. Det at reguleringsmyndigheitene plasserte emosjons-AI i same kategori som sosial poenggiving og subliminal manipulering (også forbode av EU-lova) sender eit sterkt signal: 2025 og vidare vil truleg sjå strengare kontroll og standardar for all AI som påstår å kunne lese kjenslene våre.
Oppsummert har det siste året eller to vore avgjerande. Emosjonsgjenkjennande AI er vanlegare enn nokon gong, snik seg stille inn i kundeservice, bilar og appar – og er også meir omstridd enn nokon gong, med ekspertar og reguleringsmyndigheiter som trykker på bremsen. Etter kvart som teknologien modnast, kan du vente endå fleire debattar om AI faktisk kan verkeleg forstå menneskelege kjensler, og i så fall, kven som får bruke den makta. Desse spørsmåla leier oss rett inn i neste tema: dei etiske vurderingane.
Etiske vurderingar og bekymringar
Framveksten av emosjonsgjenkjennande AI har utløyst intense etiske diskusjonar. Å lese nokon sine kjensler er ikkje som å lese eit temperaturmål – det går inn i personlege, ofte private sider av liva våre. Her er dei viktigaste bekymringane ekspertar og forkjemparar løftar fram:
- Pålitelegheit og vitskapleg gyldigheit: Eit grunnleggjande spørsmål er om desse systema faktisk fungerer slik dei påstår. Menneskelege kjensler er komplekse, avhengige av kontekst, og ikkje alltid synlege på overflata. Psykologar åtvarar om at det ikkje finst noko enkel éin-til-éin-samanheng mellom eit ansiktsuttrykk og ei indre kjensle. Ein person kan smile når dei er triste, eller rynke panna når dei konsentrerer seg – uttrykk varierer mellom individ og kulturar. I 2019 leia psykologen Lisa Feldman Barrett ein stor gjennomgang av over 1 000 studiar, og konkluderte med at «ein person sin emosjonelle tilstand kan ikkje påliteleg avleiast frå ansiktsrørsler» aleine aclu.org. Ho gir eit levande døme: «Eit rynka ansikt kan, men treng ikkje, vere eit uttrykk for sinne… folk rynkar panna når dei er sinte, men òg når dei er forvirra eller til og med har luft i magen!»aclu.org. Kort sagt, kontekst har mykje å seie for kjensler, og KI har vanlegvis ikkje kontekst. Barrett og andre meiner dagens algoritmar er svært gode til å oppdage ansiktsmuskelrørsler eller stemmeintonasjonar, men dei kan ikkje verkeleg vite kva det betyr emosjonelt aclu.org. Som ho sa rett ut til ein intervjuer: «Det finst ikkje automatisert kjenslegjenkjenning. Dei beste algoritmane kan oppdage eit ansiktsuttrykk, men dei er ikkje i stand til å tolke kva det betyr» aclu.org. Denne skepsisen er utbreidd i det vitskaplege miljøet. Utan ei klar, felles definisjon av kjensler sjølv blant psykologar, står arbeidet med å byggje KI som skal identifisere dei på ustø teoretisk grunnlag theguardian.com. I praksis aukar dette faren for feiltolking: om ein KI feilaktig merkar ein person som «sint» eller «uerlig» basert på eit mistolka signal, kan det føre til urettferdige konsekvensar (bli stoppa av tryggleik, nekta jobbintervju, osb.). Kritikarar seier enkelt sagt at dagens teknologi for kjenslegjenkjenning i beste fall er eit overslag – og i verste fall digital frenologi (pseudovitskap), særleg når det blir brukt til å dømme enkeltpersonar article19.org.
- Skjevskap og rettferd: Som mange andre AI-system, kan algoritmar for å oppdage kjensler spegle og til og med forsterke skjevskapar som finst i treningsdataene deira. Eit stort problem er kulturell og rasebasert skjevskap. Dersom ein AI hovudsakleg er trena på til dømes vestlege personar som viser «lærebok-uttrykk», kan han feiltolke folk frå andre etniske eller kulturelle bakgrunnar. Det finst bevis for at dette allereie skjer. Ei studie frå 2023 fann at nokre kommersielle kjensle-AI-system konsekvent vurderte svarte personar sine ansiktsuttrykk som meir negative eller sinte samanlikna med andre grupper theguardian.com. Med andre ord: Eit nøytralt uttrykk i ansiktet til ein svart mann kan bli tolka av AI-en som «sint», medan det same ikkje ville skjedd med ein kvit person – ein urovekkjande skjevskap med openberre konsekvensar for ting som tryggleikskontrollar eller vurderingar på arbeidsplassen theguardian.com. «Algoritmane dine er berre så gode som treningsmaterialet,» påpeikar Barrett. «Om treningsmaterialet ditt er skeivt, kodar du denne skjevskapen inn i koden.» theguardian.com. Kultur påverkar òg korleis vi uttrykkjer kjensler: eit smil kan bety ulike ting i ulike samanhengar, og gestar eller tonefall er ikkje universelle. Erik Brynjolfsson ved MIT åtvarar om at teknologi for kjenslegjenkjenning må vere sensitiv for mangfald: «Å kjenne att kjensler i eit afroamerikansk ansikt kan vere vanskeleg for ein maskin som er trena på kaukasiske ansikt. Og gestar eller stemmebøying i éin kultur kan bety noko heilt anna i ein annan» mitsloan.mit.edu. Dersom desse nyansane ikkje blir tekne omsyn til, kan teknologien systematisk feiltolke eller stille visse grupper dårlegare – i praksis koda fordommar under dekke av å «lese kjensler». Skjevskap handlar ikkje berre om demografi; det finst òg kontekstuell skjevskap (t.d. kan ein AI i eit støyande miljø tolke høge stemmer som sinne, sjølv om det berre er høgt). Å sikre rettferd i kjensle-AI er ei stor utfordring, og så langt har mange system ikkje klart å vise at dei fungerer like godt for alle.
- Overvaking og personvern: Kjensle-AI inneber ofte kontinuerleg overvaking av folks uttrykk, stemmer eller fysiologiske signal – noko som vekkjer openberre personvern-åtvaringar. Bekymringa er at det kan mogleggje eit nytt nivå av påtrengjande overvaking, der våre indre kjensler vert sporbare datapunkt. På arbeidsplassar, til dømes, kan tilsette kjenne at dei er under eit emosjonelt mikroskop, vurderte ikkje berre på prestasjon, men på om dei smiler nok eller høyrest tilstrekkeleg “entusiastiske” ut. Dette er ikkje science fiction; det skjer allereie nokre stader. Det kinesiske “smil for poeng”-systemet som vart nemnt tidlegare er eit godt døme – arbeidarar fryktar å sjå sure ut eller trøytte ut fordi ein AI ser på og vil rapportere “dårleg haldning” til sjefane businessinsider.com. Slike praksisar skaper eit undertrykkjande miljø og undergrev personleg sjølvstende. Sjølv utanfor arbeidsplassen, tenk deg offentlege kamera som ikkje berre kjenner att ansiktet ditt, men også merkar deg som “nervøs” eller “opprørt” når du går forbi. Desse dataa kan misbrukast til profilering. I motsetnad til å lese av ein termostat, kan det å lese kjensler vere djupt manipulerande – folk prøver ofte å skjule dei verkelege kjenslene sine i offentlegheita av gode grunnar (personvern, høflegheit), og at ein AI plukkar dei frå kvarandre, kjennest orwellsk. Personvernforkjemparar peikar på at folk ikkje har samtykka til å få kjenslene sine granska av kjøpesenterkamera eller politi-CCTV. Likevel vert kjenslegjenkjenningsprogramvare lagt til i nokre tryggingssystem utan at folk veit om det. Det er òg eit spørsmål om datasikkerheit: kjensledata (videoar av ansikt, lydopptak) er sensitive biometriske opplysningar. Om dei vert samla inn og lagra, kven har ansvaret for å verne dei, og kor lenge? Eit datainnbrot eller lekkasje av kjensledata (til dømes opptak frå terapitimar, eller kamerabilete merka med nokon sin sinnstilstand) kan vere svært skadeleg. Kort sagt, å gjere våre emosjonelle liv om til datastraumar utgjer “ein kraftfull ny form for overvaking,” som ein Guardian-analyse uttrykte det theguardian.com. Denne uroa fører til krav om strenge avgrensingar på kvar slik overvaking kan finne stad.
- Samtykke og autonomi: Nært knytt til personvern er spørsmålet om samtykke. Bør folk måtte aktivt samtykke for at ein AI skal analysere kjenslene deira? Mange meiner ja – kjensleanalyse er så personleg at det krev eksplisitt løyve. Nokre selskap følgjer faktisk opt-in-modellar. Til dømes er Affectiva si retningslinje for annonsetesting å berre registrere og analysere sjåarar som har samtykt og blitt informerte, og dei forbyr bruk av teknologien til hemmeleg overvaking eller identifisering av enkeltpersonar mitsloan.mit.edu. Likevel er ikkje alle leverandørar like strenge, og i praksis kan tilsette eller studentar kjenne at dei ikkje kan seie nei dersom arbeidsgivar eller skule krev eit program for kjensleovervaking (tenk deg å bli pålagt å bruke eit armband som måler kjensler på jobb). Dette reiser spørsmål om tvang. Vil arbeidstakarar i framtida bli tvinga til å halde ein viss kjenslemessig fasade (t.d. alltid høyrest “glade” ut på samtalar) fordi AI-en overvaker? Det går over i spørsmål om menneskeverd og fridom til å føle utan å bli analysert. Eitisk meiner mange at individ må ha råderett over sine eigne kjensledata. Du bør ha rett til å halde kjenslene dine for deg sjølv, eller i det minste kontrollere kven/kva som får oppdage dei. Utan tydeleg samtykke blir kjenslegjenkjenning eit uønskt inngrep i vår mentale privatliv – det som nokre forskarar kallar “mental suverenitet.” Det er oppmuntrande at den nye EU-lova eksplisitt forbyr kjensle-AI på arbeidsplassar og skular uavhengig av samtykke (på grunn av maktubalansen er reelt frivillig samtykke tvilsamt) williamfry.com, legalblogs.wolterskluwer.com. Det tyder på ei haldning om å verne folk mot å bli pressa til kjenslemessig openheit. Etter kvart som denne teknologien spreier seg, kan det bli avgjerande for personleg autonomi å insistere på samtykke – og å gi folk moglegheit til å slå det av.
- Manipulasjon og misbruk: Ein annan etisk dimensjon er korleis innsikt frå emosjonell KI kan bli brukt til å påverke eller utnytte folk. Kjensler styrer mange av vala våre, og dersom selskap eller politiske aktørar kan oppdage korleis vi føler oss, kan dei skreddarsy bodskap for å trykke på dei rette knappane. Vi såg ein låg-teknologisk versjon av dette i Cambridge Analytica-skandalen, der Facebook-data blei brukt til å psykologisk profilere veljarar og målrette annonser for å utløysa emosjonelle reaksjonar. Emosjonell KI kan forsterke slike taktikkar – i praksis mogleggjere “massemanipulasjon av kjensler”. Som Randi Williams frå Algorithmic Justice League åtvarar: “Når vi har KI som tappar inn i dei mest menneskelege sidene av oss sjølve, er det stor risiko for at enkeltpersonar blir manipulerte for kommersiell eller politisk vinning.” theguardian.com. Til dømes kan ein marknadsførings-KI merke at du er litt nedfor ein kveld (oppdaga via smarthus-einingane dine), og ei app kan straks sende deg ein annonse for trøystemat eller shopping akkurat når du er sårbar. Eller eit autoritært regime kan bruke kjenslegjenkjenning på TV-talane sine: Dersom folket ikkje ser entusiastiske nok ut, er det kanskje på tide å skru opp propagandaen eller undersøke kven som er kritiske. Desse scenaria høyrest dystopiske ut, men det er slike misbruksområde ekspertar vil førebyggje no, før dei skjer. Sjølv i mildare former reiser emosjonell påverknad etiske spørsmål – er det greitt at eit dataspel med vilje prøver å skremme deg meir når det veit du er redd, slik som i skrekkspel? Nokre meiner det er greitt for underhaldning; andre uroar seg for dei psykologiske konsekvensane. Poenget er at emosjonell KI gir eit nytt handtak for å påverke menneskeleg åtferd, og utan reguleringar eller etiske retningsliner kan det handtaket bli brukt på mørke måtar (t.d. er “emosjonell manipulasjon” eksplisitt lista som eit forbode bruksområde i Hume AI sine etiske retningsliner theguardian.com). Openheit er avgjerande: Dersom emosjonelle data blir brukt til å påverke utfall (som at ein KI for tilsetjing avviser deg fordi den meiner du mangla “passion” i intervjuet), bør personen få vite det og ha moglegheit til å klage.
- Regulering og ansvar: Gitt alle desse bekymringane, er det aukande krav om å regulere AI som oppdagar kjensler. EU sitt forbod i visse område er eitt tiltak – i praksis seier dei at nokre bruksområde er forbode. Andre stader har ekspertar foreslått å krevje grundig validering og revisjon av alle system for kjensle-AI som blir tekne i bruk, for å bevise at dei er nøyaktige og ikkje partiske (eit høgt krav som mange kanskje ikkje oppfyller). Organisasjonar som ACLU og Article 19 har tatt til orde for eit fullstendig moratorium på affektgjenkjenning i sensitive område, og kalla det uvitskapleg og i strid med menneskerettane article19.org, businessinsider.com. Ein annan del av reguleringa er datavern: sidan kjensledata kan reknast som biometriske eller helserelaterte data, kan dei falle inn under personvernlovar som GDPR, som krev strengt samtykke, føremålsavgrensing og tryggleik. Reguleringstyresmakter diskuterer òg om folk bør ha rett til å seie nei til kjenslesporing i offentlege rom og rett til å ikkje bli vurdert av automatiserte kjensle-“poeng”. På den andre sida pressar nokre bransjeorganisasjonar på for standardar som vil tillate kjensle-AI på ein ansvarleg måte (til dømes har IEEE utforska etiske retningslinjer for adaptive, kjensleresponsive system). Det som er klart, er at teknologien har gått raskare enn reglane til no, men 2024 markerer eit vendepunkt. Myndigheitene ser no på kjenslegjenkjenning som ein eigen kategori av AI som treng tilsyn. I åra som kjem, kan vi vente fleire retningslinjer som prøver å setje grenser for korleis og kvar desse verktøya kan brukast – og å stille dei som brukar dei til ansvar. For om eit AI-system gjer ei kjenslevurdering som skadar nokon (t.d. stemplar dei som “høg risiko” utan grunn), kven har ansvaret? Desse vanskelege spørsmåla treng framleis svar.
Til sjuande og sist kokar etikken ned til eit enkelt prinsipp: berre fordi vi kan prøve å lese kjensler med AI, bør vi? Og i så fall, under kva vilkår? Tilhengjarar meiner det finst humane og nyttige bruksområde for teknologien (særleg med samtykke og varsemd), medan kritikarar fryktar at sjølve føresetnaden er feil og open for misbruk. Det fører oss til siste del, der vi høyrer direkte frå ekspertar på begge sider av debatten.
Perspektiv frå ekspertar
Med AI for kjenslegjenkjenning i skjæringspunktet mellom innovasjon og kontrovers, er det opplysande å høyre kva leiande stemmer i feltet meiner. Ekspertane er delte – nokre ser eit stort potensial, andre åtvarar sterkt. Her er nokre perspektiv med deira eigne ord:
- Optimistarar og innovatørar: Mange pionerar innan affektiv databehandling meiner at å gje maskiner emosjonell intelligens kan forbetre samhandlinga mellom menneske og maskin på djupet. «Tenk på korleis du samhandlar med andre menneske; du ser på ansikta deira, du ser på kroppen deira, og du endrar samhandlinga di deretter,» forklarar Javier Hernandez, ein forskar i MIT si Affective Computing-gruppe. «Korleis kan ei maskin kommunisere effektivt om ho ikkje veit kva emosjonell tilstand du er i?» mitsloan.mit.edu. Denne leiren meiner emosjons-KI kan gjere teknologi meir responsiv, personleg og til og med medfølende. Rana el Kaliouby, som var med å grunnleggje Affectiva og har vore ein forkjempar for å «menneskeleggjere teknologi», peikar på at kjenslene våre er kjernen i korleis vi tek avgjerder og knyter band. Ho ser for seg KI som ein støttande partnar: «Paradigmet er ikkje menneske mot maskin – det er eigentleg maskin som forsterkar mennesket,» seier el Kaliouby, og understrekar at KI skal forbetre menneskelege evner, ikkje erstatte dei mitsloan.mit.edu. Etter hennar syn, om vi tek i bruk KI på rett måte, kan det til dømes hjelpe sjåførar å halde seg trygge, hjelpe legar å forstå pasientar, eller hjelpe kundar å føle seg høyrde. El Kaliouby er entusiastisk til å bruke emosjons-KI til gode formål – ho nemner ofte prosjekt som å bruke emosjonell analyse for å hjelpe barn med autisme eller for å oppdage psykiske helseproblem tidleg. Og trass i bekymringane, når ho blir spurt om vi i det heile bør ha denne teknologien, er svaret hennar eit bestemt ja. «Absolutt ja,» sa ho i 2024 – for saman med risikoane, «tilbyr KI fantastiske løysingar på menneskeheita sine største utfordringar.» asisonline.org Hennar haldning, og den til mange i bransjen, er at vi ikkje bør kaste barnet ut med badevatnet. I staden oppmodar dei til å utvikle ansvarleg, menneskesentrert emosjons-KI – med frivillig deltaking, openheit og mangfald i tankane – slik at fordelane (tryggare vegar, betre helsetenester, meir engasjerande utdanning, osb.) kan realiserast. Som el Kaliouby seier det: «Kvar einaste bransje blir transformert … med KI,» og emosjons-KI, om det blir gjort rett, «kan gjere desse transformasjonane meir empatiske.» asisonline.org Tilhengjarar anerkjenner utfordringane, men meiner generelt at desse kan avhjelpast gjennom gjennomtenkt design og politikk, heller enn å forkaste teknologien heilt.
- Skeptikar og kritikarar: På den andre sida oppmodar eit kor av forskarar og etikarar oss til å sakke farten eller til og med stanse emosjonsgjenkjenningsteknologi, og åtvarar om at ho kviler på usikker vitskap og medfører uakseptable risikoar. Vi har allereie høyrt professor Lisa Feldman Barrett sitt forskingsbaserte skepsis til at ansiktsuttrykk kan kartleggjast påliteleg til kjensler. Barrett avviser rett og slett mange leverandørar sine påstandar: “Most companies still claim you can look at a face and tell whether someone is angry or sad… That’s clearly not the case.” theguardian.com Ho uroar seg for at desse systema, velmeinande eller ikkje, vil feile – og at folk vil bli feilvurderte. Ein annan frittalande kritikar, Vidushi Marda frå Article 19 (ei digital rettsgruppe), som har studert bruk av emosjonsgjenkjenning i Kina, uttalte at feltet er “fundamentally rooted in unscientific ideas” og at å ta slike system i bruk i stor skala er “deeply unethical.” businessinsider.com Personvernforkjemparar som Evan Selinger har kalla emosjonsgjenkjenning “the most dangerous AI you’ve never heard of,” og meiner det kan føre til nye former for diskriminering og manipulasjon. Og det er ikkje berre akademikarar: sjølv teknologar har tvil. I eit intervju med TechCrunch åtvara Andrew Moore, tidlegare sjef for Google Cloud AI, om at AI si forståing av kjensler er “at least a decade away from reliability” og at misbruk før den tid kan undergrave tilliten til AI generelt. Desse ekspertane tilrår ofte strenge avgrensingar. ACLU har til og med gått så langt som å støtte forbod, der politisk analytikar Daniel Kahn Gillmor skriv, “At a minimum, no one’s rights or livelihood should hinge on an AI’s emotional guesswork”. Frå deira ståstad veg dei potensielle skadane – feilaktige arrestasjonar, partisk tilsetjing, brot på mental personvern – tyngre enn dei usikre fordelane. Dei peikar òg på at sjølve menneske slit med å tolke kvarandre sine kjensler rett på tvers av kulturar og kontekstar, så å forvente at ein maskin skal klare det, er fåfengt. I hovudsak oppmodar skeptikarane samfunnet til å trykke på pause, krevje solide bevis og etiske rammeverk først, og hugse at kjensler er djupt menneskelege – kanskje ikkje noko vi vil at maskiner skal analysere.
Det er interessant at begge leirar til slutt ønskjer ei betre framtid, men skil seg i metode. Optimistane fokuserer på potensielle gevinstar (empati i AI, betre velferd), medan skeptikarane fokuserer på å førebyggje skade (urett, tap av personvern). Det finst òg moderate i midten, som anerkjenner teknologiens potensial, men insisterer på strenge tryggleikstiltak. Til dømes går Erik Brynjolfsson inn for å utvikle emosjons-AI gjennomtenkt, og seier “what’s important to remember is that when it’s used thoughtfully, the ultimate benefits can and should be greater than the cost”, men han legg straks til at det må vere “appropriate for all people” og kulturelt medvite mitsloan.mit.edu. Det mellomste standpunktet inneber truleg sterk regulering, openheit frå selskapa, og vidare forsking på kor treffsikre desse systema faktisk er.
Avslutningsvis, kunstig intelligens som oppdagar kjensler, sit ved eit fascinerande skjæringspunkt mellom teknologi, psykologi og etikk. Dens tilhengjarar meiner den kan gjere einingane og tenestene våre mykje meir tilpassa behova våre – frå bilar som roer oss ned til appar som veit når vi slit og tilbyr hjelp. Dens kritikarar kjem med gyldige åtvaringar om at ingen KI bør vere terapeut, dommar eller spion – lese kjenslene våre på måtar som kan villeie eller undertrykke. Sanninga kan godt avhenge av korleis vi vel å bruke det. Per 2025 er kjensle-gjenkjennande KI her og i utvikling, men òg under nøye gransking. Vi har sett reelle fordelar i visse nisjar (som mental helse-overvaking og tilpassa utdanning), og òg reell motstand (nye lover og forbod som svar på misbruk).
Framover må samfunnet navigere ei varsom rute: krevje solid vitskapleg grunnlag og rettferd i alle verktøy for kjensle-gjenkjenning, sikre trygge private rom utan emosjonell overvaking, og avgjere demokratisk kvar grensa skal gå mellom hjelpsam empati og skadeleg inntrenging. Éin ting er sikkert: denne debatten har så vidt starta. KI kan bli betre til å vite om du er snill eller slem – men det er opp til oss alle å sørgje for at denne kraftige evna blir brukt på måtar som respekterer menneskeverdet og forbetrar liva våre, i staden for å forringe dei.
Kjelder:
- Gaudenz Boesch, “AI Emotion Recognition and Sentiment Analysis,” Viso Blog – viso.ai (10. okt. 2024) viso.ai
- Noor Al Mazrouei, “Emotion AI: Transforming Human-Machine Interaction,” TRENDS Research (17. feb. 2025) trendsresearch.org
- Meredith Somers, “Emotion AI, explained,” MIT Sloan (8. mars 2019) mitsloan.mit.edu
- Julie Bort, “’Emotion AI’ may be the next trend for business software, and that could be problematic,” TechCrunch (1. sept. 2024) techcrunch.com
- Will Knight, “Experts Say ‘Emotion Recognition’ Lacks Scientific Foundation,” ACLU (18. juli 2019) aclu.org
- Oscar Holland, “Er du 80 % sint og 2 % trist? Kvifor ‘emosjonell KI’ er full av problem,” The Guardian (23. juni 2024) theguardian.com
- Valeria Vasquez og andre, “Forbodet mot KI-teknologiar for kjenslegjenkjenning på arbeidsplassen under KI-lova,” Wolters Kluwer – Global Workplace Law (feb. 2025) legalblogs.wolterskluwer.com
- Cheryl Teh, “‘Kvart smil du feikar’ — eit KI-system for kjenslegjenkjenning kan vurdere kor ‘lykkelege’ arbeidarane i Kina er på kontoret,” Business Insider (16. juni 2021) businessinsider.com
- AIMultiple Research Team, “Topp 10+ døme og brukstilfelle på emosjonell KI i 2025,” AIMultiple (oppdatert 2. juni 2025) research.aimultiple.com
- Sara Mosqueda, “El Kaliouby: Menneske kan bruke KI for å forbetre verda,” Security Management Magazine – GSX Daily (24. sept. 2024) asisonline.org
- Dartmouth College, “Telefonapp brukar KI for å oppdage depresjon frå ansiktsuttrykk,” Dartmouth News (27. feb. 2024) home.dartmouth.edu