AI die weet hoe je je voelt: De opkomst van emotieherkennende technologie

augustus 25, 2025
AI That Knows How You Feel: The Rise of Emotion-Detecting Tech
AI That Knows How You Feel

Kunstmatige intelligentie gaat niet langer alleen over het verwerken van cijfers of het herkennen van gezichten – het leert hoe wij ons voelen te lezen. De zogeheten emotie-detecterende AI (ook wel Emotion AI of affective computing genoemd) gebruikt algoritmes om onze gezichtsuitdrukkingen, stemgeluid, tekstberichten en zelfs lichaamssignalen te analyseren om menselijke emoties af te leiden. De belofte is verleidelijk: meer intuïtieve apps, empathische robots en gepersonaliseerde ervaringen die op onze stemming reageren. Maar nu deze technologie uit de onderzoeks­laboratoria komt en zijn intrede doet in werkplekken, scholen en openbare ruimtes, roept het grote vragen op. Hoe werken deze AI-“gedachtenlezers” precies? Waar worden ze vandaag de dag gebruikt? En waarom zijn sommige experts zo enthousiast over de mogelijkheden, terwijl anderen juist waarschuwen voor de valkuilen? In dit diepgaande rapport onderzoeken we hoe emotie-detecterende AI werkt, toepassingen in de praktijk in verschillende sectoren, de nieuwste ontwikkelingen in 2024–2025, en de ethische zorgen die het oproept – met doorlopende verwijzingen naar expertinzichten en actuele feiten.

Wat is emotie-detecterende AI en hoe werkt het?

Emotie-detecterende AI verwijst naar algoritmes die menselijke emoties herkennen en interpreteren op basis van verschillende gegevensbronnen. Het draait er in wezen om machines een vorm van emotionele intelligentie te geven. Onderzoekers noemen dit vakgebied vaak affective computing. De AI-systemen proberen gevoelens te “lezen” via meerdere kanalen:

  • Gezichtsanalyse: Een van de meest gebruikte benaderingen is het gebruik van computer vision om gezichtsuitdrukkingen te analyseren. Een camera maakt een opname (of video) van het gezicht van een persoon, waarna de AI eerst het gezicht en belangrijke punten (ogen, wenkbrauwen, mond, enz.) detecteert. Vervolgens onderzoekt het met deep learning (vaak convolutionele neurale netwerken) de spierbewegingen of “micro-expressies” en classificeert de gezichtsuitdrukking in een emotiecategorie viso.ai. Veel systemen zijn getraind om basisuitdrukkingen te herkennen zoals blijheid, verdriet, boosheid, angst, verrassing, walging en neutraliteit botpenguin.com. Zo kan een glimlachende mond met kraaienpootjes als “blij” worden aangemerkt, terwijl een gefronste wenkbrauw “boos” kan betekenen – al is het, zoals we zullen zien, niet altijd zo eenvoudig.
  • Analyse van stemtoon: Het gaat niet alleen om wat we zeggen, maar ook hoe we het zeggen kan emotie overbrengen. Spraaksherkenning van emoties-algoritmes luisteren naar audiopatronen in de stem van een spreker – zaken als toonhoogte, volume, tempo en toon. AI-modellen analyseren deze vocale kenmerken (intonatie, nadruk, ritme, enz.) om af te leiden of iemand opgewonden, kalm, van streek, enzovoort klinkt botpenguin.com. Een trillende, hoge stem kan bijvoorbeeld duiden op angst of boosheid, terwijl een langzame, vlakke toon kan wijzen op verdriet of vermoeidheid. Sommige systemen pikken zelfs specifieke woorden of verbale signalen op (zoals een bibberend “het gaat goed”) die samenhangen met emotionele toestanden.
  • Tekst Sentiment Analyse: Emoties worden ook uitgedrukt in geschreven tekst. AI kan natuurlijke taalverwerking (NLP) uitvoeren op teksten – van socialmediaberichten tot e-mails of chatberichten – om sentiment te detecteren. Traditionele sentimentanalyse classificeert tekst als positief, negatief of neutraal. Nieuwere emotie-AI gaat verder en identificeert specifieke gevoelens uit tekst door te kijken naar woordkeuze, context en interpunctie botpenguin.com. Bijvoorbeeld, “Ik ben absoluut enthousiast!” zou als zeer positief (blij/opgewonden) worden geregistreerd, terwijl “Ik voel me zo gekwetst en alleen…” als verdrietig of van streek kan worden gemarkeerd. Grote taalmodellen en fijn-afgestelde classificatiesystemen worden gebruikt om de emotionele toon achter onze woorden te analyseren.
  • Andere Biometrische Signalen: Sommige geavanceerde systemen nemen ook fysiologische en gedragsmatige signalen mee. Dit kan onder andere lichaamstaal (houding, gebaren), oogtracking (waar je kijkt en hoe je pupillen verwijden), hartslag, huidgeleiding of hersengolven via wearables omvatten. Deze signalen kunnen wijzen op stress of opwinding – bijvoorbeeld een verhoogde hartslag en zweterige handpalmen kunnen op angst duiden. In baanbrekend onderzoek combineert multimodale emotie-AI gezichts, vocale en fysiologische data voor een vollediger beeld trendsresearch.org. Zo kan de AI van een auto die de bestuurder monitort een camera gebruiken om je gezicht te observeren en een sensor in het stuur om je hartslag te meten, op zoek naar tekenen van slaperigheid of woede achter het stuur.

Al deze methoden maken gebruik van machine learning op grote datasets van menselijke emotionele uitdrukkingen. De AI-modellen worden “getraind” op voorbeelden – afbeeldingen van gezichten gelabeld met de getoonde emotie, audioclips gelabeld met de stemming van de spreker, enzovoort. Na verloop van tijd leert de AI patronen die bepaalde input (een specifieke glimlach, een toon van stem) koppelen aan waarschijnlijke emoties. Het is in wezen patroonherkenning: de AI voelt zelf niets, maar doet een geïnformeerde gok over onze gevoelens op basis van de signalen die we afgeven.

Het is belangrijk op te merken dat huidige emotieherkennende AI’s meestal beperkt zijn tot het herkennen van enkele brede emotiecategorieën of opwindingsniveaus. Menselijke emoties zijn genuanceerd en contextafhankelijk, wat dit een zeer uitdagende taak voor AI maakt. Toch verbetert de technologie snel. Door computer vision, spraakanalyse en NLP te combineren, kan de emotie-AI van vandaag de emotionele toestand van een persoon met redelijke nauwkeurigheid afleiden – onder de juiste omstandigheden. Zoals een rapport uitlegde, maakt het integreren van meerdere technieken (gezicht, stem, tekst) het mogelijk voor machines om menselijke emoties “met grotere nauwkeurigheid” te interpreteren, waardoor interacties natuurlijker en responsiever aanvoelen trendsresearch.org. In de volgende secties bekijken we hoe deze mogelijkheden in de echte wereld worden toegepast, en hoe ver ze zijn gekomen in 2024–2025.

Toepassingen in de echte wereld in verschillende sectoren

Emotieherkennings-AI is verder gegaan dan het laboratorium en wordt nu in diverse sectoren toegepast. Hier zijn enkele van de meest prominente toepassingen en gebruikssituaties per sector:

  • Gezondheidszorg en welzijn: Emotie-AI wordt getest als hulpmiddel voor geestelijke gezondheid en patiëntenzorg. Zo hebben onderzoekers smartphone-apps ontwikkeld die het gezicht en de stem van gebruikers monitoren op tekenen van depressie of angst home.dartmouth.edu. In een studie uit 2024 werd MoodCapture geïntroduceerd, een app die de camera van de telefoon gebruikt om vroege symptomen van depressie te detecteren door de gezichtsuitdrukkingen van een gebruiker te analyseren telkens wanneer ze hun telefoon ontgrendelen – en die stemmingsveranderingen met ongeveer 75% nauwkeurigheid wist te identificeren in tests home.dartmouth.edu. Therapeuten onderzoeken ook AI die tijdens therapiesessies meeluistert om de emotionele toestand van een patiënt af te leiden uit de toon van hun stem, en die mogelijk waarschuwt als iemand steeds meer van streek klinkt. In ziekenhuizen zouden emotieherkennende camera’s het pijn- of stressniveau van patiënten kunnen monitoren wanneer verpleegkundigen niet aanwezig zijn. En voor mensen met autisme kan ondersteunende emotie-AI helpen bij het interpreteren van de gezichtsuitdrukkingen van anderen – bijvoorbeeld via een draagbaar apparaat of tablet-app die een autistisch kind aanwijzingen geeft als “Mama is blij” of “Papa kijkt boos,” zodat ze emotionele signalen leren herkennen mitsloan.mit.edu.
  • Marketing en Klantbeleving: Bedrijven gebruiken emotie-AI om consumenten op een dieper niveau te begrijpen. Adverteerders kunnen commercials of productvideo’s testen met panels van kijkers die toestemming geven om via een webcam opgenomen te worden; de AI analyseert vervolgens frame-voor-frame de gezichtsreacties om te zien op welke momenten mensen glimlachten, lachten of zich verveeld leken te voelen. Sterker nog, ongeveer 25% van de Fortune 500-bedrijven heeft emotie-AI gebruikt in reclameonderzoek om de betrokkenheid van het publiek te meten mitsloan.mit.edu. Een toonaangevend bedrijf op dit gebied, Affectiva (mede opgericht door MIT-wetenschappers), stelt merken in staat om de onderbewuste, “viscerale” reacties van kijkers op advertenties vast te leggen en deze te correleren met echt gedrag, zoals of ze de advertentie zullen delen of het product zullen kopen mitsloan.mit.edu. Buiten advertenties om onderzoeken retailers emotiedetecterende camera’s in winkels om de klanttevredenheid te peilen (verliet die service-interactie je geïrriteerd of juist blij?). Online proberen chatbots met sentimentanalyse hun reacties aan te passen op basis van de stemming van de klant – bijvoorbeeld door door te schakelen naar een menselijke medewerker als een gebruiker boos klinkt. Zelfs fysieke billboards hebben emotie-analyse geprobeerd: in Brazilië gebruikte een interactief metrosysteem camerabeelden om de gezichtsuitdrukkingen van forenzen te classificeren (blij, neutraal, verrast, ontevreden) en paste vervolgens de advertentie-inhoud in realtime aan om beter aan te sluiten bij de stemming van de menigte research.aimultiple.com.
  • Onderwijs: Klaslokalen en e-learningplatforms experimenteren met AI om de emoties en aandacht van studenten te meten. Het doel is om responsieve leeromgevingen te creëren. Zo gebruikte een online bijlesbedrijf in India emotieherkenning via de webcams van studenten om betrokkenheid en vermoeidheid tijdens live lessen te volgenresearch.aimultiple.comresearch.aimultiple.com. Het systeem hield oogbewegingen en gezichtsuitdrukkingen in de gaten om “aandachtscores” te genereren, zodat docenten konden zien wanneer studenten hun focus verloren. In sommige hightech klaslokalen zijn camera’s (omstreden) gebruikt om gezichten van studenten te scannen op tekenen van verwarring of verveling, zodat docenten hun lessen kunnen aanpassen legalblogs.wolterskluwer.com. Er zijn zelfs berichten uit China over scholen die gezichtsherkenningscamera’s testen die de emotionele toestand van studenten (zoals geluk of boosheid) gedurende de dag registreren businessinsider.com. In theorie zouden zulke tools het onderwijs kunnen personaliseren – een tutorbot zou bijvoorbeeld aanmoediging kunnen bieden als het frustratie detecteert – maar ze roepen ook discussies op over toezicht (daarover later meer).
  • Automotive: Autofabrikanten integreren emotie-AI in voertuigen om de veiligheid en rijervaring te verbeteren. Bestuurdersmonitoringssystemen gebruiken camera’s op het dashboard om je gezicht en houding te observeren, en controleren op slaperigheid of afleiding. Als de AI ziet dat je oogleden hangen of je houding inzakt (tekenen van vermoeidheid), kan er een waarschuwing klinken. Luxe merken gaan nog verder door te proberen de emotionele toestand van bestuurders te meten: bijvoorbeeld door te detecteren of een bestuurder van streek of boos is (agressief rijgedrag) en dan in te grijpen – bijvoorbeeld door de muziek te verzachten of zelfs de snelheid van de auto te beperken mitsloan.mit.edu. Affectiva, nu onderdeel van Smart Eye, heeft een automotive AI-platform dat zowel de bestuurder als de inzittenden monitort. Het kan zien of de bestuurder lacht of ruzie maakt, of dat passagiers angstig zijn, en past de instellingen van de auto daarop aan (stel je voor dat de auto de veiligheidssystemen aanscherpt als er stress wordt gedetecteerd) mitsloan.mit.edu. In semi-autonome auto’s kan emotie-AI bepalen of je te afgeleid bent om de controle over te nemen. De toepassingen in de auto-industrie draaien allemaal om het gebruik van emotieherkenning om veiligheid, comfort en personalisatie op de weg te verbeteren.
  • Entertainment en Gaming: Entertainment wordt steeds interactiever dankzij emotie-AI. Videogamedevelopers zijn begonnen met het bouwen van games die reageren op de emoties van de speler. Een opvallend voorbeeld is “Nevermind,” een psychologische thriller-game die de webcam van de speler (of een biofeedbacksensor) gebruikt om stress te detecteren – als het merkt dat je bang wordt, wordt het spel daadwerkelijk uitdagender en komen er meer schrikmomenten, terwijl het spel juist makkelijker wordt als je kalm blijft research.aimultiple.com. Dit zorgt voor een dynamische horrorervaring die zich aanpast aan je angstniveau. In film en tv testen studio’s gezichtsherkenning bij testpubliek om emotionele reacties op scènes te meten (was de plottwist echt verrassend? Werd er gelachen om de comedy?). Er wordt ook geëxperimenteerd met gepersonaliseerde content: stel je een streamingdienst voor die via de camera van je laptop je gezicht observeert en films aanbeveelt die passen bij je huidige stemming (sommige reiswebsites hebben zelfs geprobeerd bestemmingen aan te bevelen op basis van de gezichtsuitdrukking van een gebruiker research.aimultiple.com). Hoewel grootschalige “stemmingsgebaseerde” contentaanbevelingen nog experimenteel zijn, belooft de samensmelting van AI en entertainment nieuwe vormen van meeslepende, interactieve media.
  • Wetshandhaving en Beveiliging: Emotieherkenning wordt overwogen voor beveiligingstoepassingen, al is dit het meest omstreden gebied. Sommige politiekorpsen hebben AI overwogen die live CCTV-beelden of bodycam-opnames scant om “verdacht” gedrag of mogelijke agressie te signaleren. Zo kunnen algoritmes spraakopnames analyseren op stress of woede om te bepalen wanneer een 112-beller of iemand in hechtenis mogelijk agressief wordt. Er zijn “agressiedetectoren” op de markt voor openbare veiligheid die luisteren naar boze tonen of geschreeuw om beveiliging vooraf te waarschuwen voor vechtpartijen. In China heeft een bedrijf genaamd Taigusys een AI-surveillancesysteem ontwikkeld dat de gezichten van werknemers in kantoren en masse monitort en beweert te kunnen detecteren hoe elke persoon zich voelt – of een werknemer blij, neutraal, boos of gestrest is businessinsider.com. Het systeem beweert zelfs te weten of je een glimlach faked, en genereert rapporten over werknemers die te veel “negatieve” emoties tonen, wat suggereert dat ze mogelijk hulp nodig hebben of iets verdachts doen businessinsider.com. In gevangenissen is vergelijkbare technologie getest om de emotionele toestand van gedetineerden te monitoren. Grensbeveiliging in sommige landen heeft AI-leugendetectors getest die de micro-expressies van reizigers observeren op “tekenen van bedrog”. En bij politieondervragingen wordt geëxperimenteerd met spraakanalyse die probeert te bepalen of een verdachte nerveus is. Echter, vertrouwt geen enkel politiekorps uitsluitend op deze tools als bewijs – zelfs voorstanders zeggen dat ze alleen aanvullend gebruikt mogen worden. Zoals we zullen bespreken, dringen experts hier aan op uiterste voorzichtigheid omdat foutieve metingen (bijvoorbeeld een AI die ten onrechte een onschuldig persoon als “boos” of “bedrieglijk” aanmerkt) ernstige gevolgen kunnen hebben in justitie- en veiligheidscontexten.

In al deze sectoren is het achterliggende idee dat als machines onze emoties kunnen begrijpen, ze op een natuurlijkere en effectievere manier met ons kunnen omgaan. Een AI-tutor die frustratie aanvoelt, kan een les anders formuleren. Een klantenservicebot die ongeduld in je stem hoort, kan direct een menselijke manager inschakelen. Een auto die weet dat je moe bent, kan je oppeppen of het rijden overnemen. Emotion AI is er in wezen op gericht technologie empathischer te maken, zodat deze zich aanpast aan mensen in plaats van mensen te dwingen zich aan te passen aan machines trendsresearch.org. Het is een fascinerende grens – en het ontwikkelt zich snel, zoals de volgende sectie illustreert met de nieuwste ontwikkelingen.

Laatste ontwikkelingen en nieuws (2024–2025)

Emotieherkennende AI heeft de afgelopen twee jaar een snelle ontwikkeling doorgemaakt, van technische doorbraken tot regelgevende tegenwerking. Hier zijn enkele opvallende recente trends en nieuwsfeiten:

  • Stijgende investeringen en startups: De zakenwereld heeft zijn oog laten vallen op emotionele AI. Industrie-analisten melden dat “emotion AI” een hot topic aan het worden is in bedrijfssoftware, vooral nu bedrijven steeds meer chatbots en virtuele assistenten inzetten die emotioneel bewust moeten zijn techcrunch.com. Een recent onderzoeksrapport van PitchBook voorspelt dat de adoptie van emotion AI zal toenemen om interacties met AI menselijker te maken techcrunch.com. Durfkapitaal stroomt deze sector binnen: zo heeft een toonaangevend conversatie-AI-bedrijf, Uniphore, meer dan $600 miljoen opgehaald (waaronder een ronde van $400 miljoen in 2022) om AI te ontwikkelen die klantemoties kan lezen tijdens servicegesprekken techcrunch.com. Tal van startups betreden het veld – bedrijven als MorphCast, audEERING, Voicesense, SuperCEED, Siena AI, en anderen bouwen tools om gezichts- en stemaanwijzingen op grote schaal te analyseren techcrunch.com. Marktprognoses weerspiegelen dit momentum: een rapport schat dat de wereldwijde markt voor emotiedetectie en -herkenning zal groeien van ongeveer $3–4 miljard in 2024 tot meer dan $7 miljard binnen vijf jaar technologyslegaledge.com, en een andere analyse voorspelt een sprong tot wel $173 miljard in 2031 (hoewel dergelijke schattingen variëren) research.aimultiple.com. Het is duidelijk dat veel bedrijven commercieel potentieel zien in AI die gevoelens kan inschatten – of het nu is om de verkoop te verhogen, klanttevredenheid te verbeteren of de veiligheid te vergroten.
  • Nieuwe technologische mogelijkheden: Op het gebied van onderzoek wordt AI steeds beter in het begrijpen van genuanceerde emoties. Een opvallend voorbeeld in 2024 was een project aan de Universiteit van Groningen waarbij een AI werd getraind om sarcasme te detecteren in gesproken taal theguardian.com. Door het systeem gescripte dialogen uit sitcoms zoals Friends en The Big Bang Theory te laten verwerken, leerden onderzoekers het de vocale patronen van sarcastische spraak te herkennen (bijvoorbeeld overdreven toon of slepende uitspraak). Het model kon sarcasme in audio met ongeveer 75% nauwkeurigheid identificeren theguardian.com. Dit is belangrijk omdat sarcasme berucht moeilijk is voor algoritmes (en soms ook voor mensen!) om op te pikken, terwijl het essentieel is om ware gevoelens in communicatie te begrijpen. Vooruitgang op dit soort gebieden geeft aan dat emotie-AI verder gaat dan alleen het detecteren van “blij versus verdrietig” en zich richt op meer complexe sociale signalen. Evenzo worden multimodale modellen beter: we zien AI die tekst, stem en gezichtsdata combineert voor een meer contextbewuste emotieanalyse. Bedrijven zoals Hume AI (opgericht door een ex-Google onderzoeker) ontwikkelen empathische spraakinterfaces die niet alleen reageren op wat je zegt, maar ook op hoe je het zegt, met als doel AI-gesprekken emotioneel beter afgestemd te laten aanvoelen theguardian.com. Hume heeft zelfs een ethische raad opgericht om de ontwikkeling van “empathische AI” te begeleiden theguardian.com, waarmee ze het belang van voorzichtige vooruitgang erkennen. Aan de hardwarekant zijn camera- en sensortechnologie alomtegenwoordig en goedkoop, waardoor het makkelijker dan ooit is om emotieherkenning in te bouwen in telefoons, auto’s en slimme apparaten voor thuisgebruik.
  • Mainstream adoptie & controverses: Terwijl emotie-AI wordt uitgerold, stuit het ook op enkele obstakels. Een spraakmakend voorbeeld: de videoconferentie-gigant Zoom onderzocht naar verluidt het toevoegen van emotie-detectie functies (zoals het aan de host laten weten of deelnemers betrokken of afgeleid waren) – maar na publieke verontwaardiging over privacy kondigde Zoom medio 2022 aan “geen plannen” te hebben om dergelijke emotie-tracking AI te implementeren. Op vergelijkbare wijze was het wervingsplatform HireVue begonnen met het gebruik van AI om gezichtsuitdrukkingen van sollicitanten te analyseren tijdens video-interviews, maar in 2021 liet het het gezichtsanalysesysteem vallen vanwege wetenschappelijke kritiek en publieke bezorgdheid. Deze incidenten vormen de opmaat voor 2024, waarin alleen al het idee van emotieherkenning in werk- of consumentenapps de wenkbrauwen doet fronsen (en niet het soort dat een AI zou moeten volgen). In het nieuws blijven we zorgen over misbruik zien: bijvoorbeeld berichten dat Chinese techbedrijven emotieherkenning inzetten bij werknemers, wat internationale kritiek heeft opgeleverd businessinsider.com. En terwijl sommige leveranciers “leugendetectie-AI” voor beveiliging aanprijzen, hebben experts veel van deze systemen ontkracht als nauwelijks beter dan toeval.
  • Regulatoire stappen: Misschien is de grootste ontwikkeling in 2024 dat overheden zijn begonnen in te grijpen in emotie-AI. In mei 2024 rondde de Europese Unie de EU AI Act af, een ingrijpende wet om kunstmatige intelligentie te reguleren. Opvallend is dat deze wet het gebruik van AI voor real-time emotieherkenning in bepaalde contexten verbiedt als een “onaanvaardbaar risico” voor de mensenrechten theguardian.com. Concreet zal de EU AI-systemen verbieden die beweren emoties van mensen af te leiden op de werkplek, op scholen of in andere publieke instellingen (met slechts beperkte uitzonderingen zoals gezondheidszorg of veiligheid) legalblogs.wolterskluwer.com. EU-wetgevers concludeerden dat emotieherkenning in zulke omgevingen opdringerig en onbetrouwbaar is, en tot onrechtvaardige uitkomsten kan leiden. (Ze maakten wel onderscheid tussen een AI die simpelweg iemands uitdrukking herkent – wat mogelijk is toegestaan – en daadwerkelijk verklaren wat die persoon voelt van binnen, wat verboden zou zijn theguardian.com.) Dit juridische standpunt, een van de eerste in zijn soort, weerspiegelt het groeiende scepticisme onder beleidsmakers over de geldigheid en ethiek van emotie-AI. In de VS is er geen federaal verbod, maar sommige rechtsgebieden overwegen beperkingen, en de ACLU en andere burgerrechtenorganisaties hebben opgeroepen het gebruik van emotieherkenning bij politie en werkgelegenheid te stoppen aclu.org, businessinsider.com. Het feit dat toezichthouders emotie-AI op één hoop gooien met zaken als sociale scoring en subliminale manipulatie (ook verboden door de EU-wet) geeft een duidelijk signaal: in 2025 en daarna zal er waarschijnlijk strengere controle en strengere normen komen voor elke AI die beweert onze gevoelens te kunnen lezen.

Samengevat zijn het afgelopen jaar of twee cruciaal geweest. Emotieherkennende AI is algemener dan ooit, sluipt stilletjes binnen in klantenservice, auto’s en apps – en is ook meer omstreden dan ooit, met experts en toezichthouders die op de rem trappen. Naarmate de technologie volwassener wordt, kun je nog meer discussies verwachten over de vraag of AI echt menselijke emoties kan begrijpen, en zo ja, wie die macht mag gebruiken. Die vragen leiden ons direct naar het volgende onderwerp: de ethische overwegingen.

Ethische overwegingen en zorgen

De opkomst van emotieherkenning door AI heeft intense ethische discussies aangewakkerd. Iemands emoties lezen is niet hetzelfde als het aflezen van een temperatuurmeter – het dringt door tot persoonlijke, vaak privé-aspecten van ons leven. Dit zijn de belangrijkste zorgen die experts en voorvechters naar voren brengen:

  • Betrouwbaarheid en wetenschappelijke geldigheid: Een fundamentele kwestie is of deze systemen daadwerkelijk werken zoals beweerd wordt. Mensenlijke emoties zijn complex, contextafhankelijk en niet altijd zichtbaar aan de oppervlakte. Psychologen waarschuwen dat er geen eenvoudige één-op-één relatie is tussen een gezichtsuitdrukking en een innerlijk gevoel. Iemand kan glimlachen als hij of zij verdrietig is, of fronsen als hij of zij zich concentreert – uitdrukkingen verschillen per individu en cultuur. In 2019 leidde psycholoog Lisa Feldman Barrett een grootschalige review van meer dan 1.000 studies en concludeerde dat “de emotionele toestand van een persoon niet betrouwbaar kan worden afgeleid uit alleen gezichtsbewegingen” aclu.org. Ze geeft een sprekend voorbeeld: “Een fronsend gezicht is misschien wel of niet een uitdrukking van woede… mensen fronsen als ze boos zijn, maar ook als ze verward zijn of zelfs winderig!”aclu.org. Kortom, context is van enorm belang bij emoties, en AI heeft doorgaans geen context. Barrett en anderen stellen dat de huidige algoritmen heel goed zijn in het detecteren van gezichtsspierbewegingen of stemintonaties, maar dat ze niet echt kunnen weten wat die emotioneel betekenen aclu.org. Zoals ze botweg tegen een interviewer zei: “Er is geen geautomatiseerde emotieherkenning. De beste algoritmen kunnen een gezichtsuitdrukking detecteren, maar ze zijn niet uitgerust om te achterhalen wat die betekent” aclu.org. Deze scepsis is wijdverbreid in de wetenschappelijke gemeenschap. Zonder een duidelijke, algemeen aanvaarde definitie van emoties, zelfs onder psychologen, is het bouwen van een AI om ze te identificeren theoretisch wankel theguardian.com. In praktische zin brengt dit het gevaar van misinterpretatie met zich mee: als een AI iemand ten onrechte als “boos” of “oneerlijk” bestempelt op basis van een verkeerd geïnterpreteerde aanwijzing, kan dat tot oneerlijke uitkomsten leiden (zoals gesignaleerd worden door beveiliging, een sollicitatiegesprek mislopen, enz.). Simpel gezegd, zeggen critici dat de huidige emotieherkenningstechnologie op zijn best een benadering is – en op zijn slechtst digitale frenologie (pseudowetenschap), vooral wanneer het wordt gebruikt om individuen te beoordelen article19.org.
  • Vooringenomenheid en eerlijkheid: Net als veel andere AI-systemen kunnen algoritmen voor het detecteren van emoties de vooroordelen die aanwezig zijn in hun trainingsdata weerspiegelen en zelfs versterken. Een belangrijk punt van zorg is culturele en raciale vooringenomenheid. Als een AI voornamelijk is getraind op bijvoorbeeld westerse proefpersonen die schoolvoorbeeld-uitdrukkingen tonen, kan het mensen uit andere etnische of culturele achtergronden verkeerd interpreteren. Er is bewijs dat dit nu al gebeurt. Uit een onderzoek uit 2023 bleek dat sommige commerciële emotie-AI-systemen de gezichtsuitdrukkingen van zwarte mensen consequent als negatiever of bozer beoordeelden vergeleken met andere groepen theguardian.com. Met andere woorden, een neutrale blik op het gezicht van een zwarte man kan door de AI als “boos” worden geïnterpreteerd, terwijl dat bij een witte persoon niet het geval zou zijn – een verontrustende vooringenomenheid met duidelijke gevolgen voor zaken als veiligheidscontroles of beoordelingen op de werkvloer theguardian.com. “Je algoritmes zijn maar zo goed als het trainingsmateriaal,” merkt Barrett op. “Als je trainingsmateriaal bevooroordeeld is, leg je dat vooroordeel vast in code.” theguardian.com. Cultuur beïnvloedt ook hoe we emoties uiten: een glimlach kan in verschillende contexten iets anders betekenen, en gebaren of toon zijn niet universeel. Erik Brynjolfsson van MIT waarschuwt dat emotieherkenningstechnologie gevoelig moet zijn voor diversiteit: “Emoties herkennen op een Afro-Amerikaans gezicht kan moeilijk zijn voor een machine die is getraind op blanke gezichten. En gebaren of stemintonaties in de ene cultuur kunnen iets heel anders betekenen in een andere” mitsloan.mit.edu. Als deze nuances niet worden meegenomen, kan de technologie bepaalde groepen systematisch verkeerd interpreteren of benadelen – in feite vooroordelen coderen onder het mom van “emoties lezen.” Vooringenomenheid gaat niet alleen over demografie; er is ook contextuele vooringenomenheid (bijvoorbeeld: een AI in een lawaaierige omgeving kan verheven stemmen als boosheid interpreteren terwijl het gewoon luid is). Eerlijkheid waarborgen in emotie-AI is een enorme uitdaging, en tot nu toe hebben veel systemen niet aangetoond dat ze voor alle mensen even goed werken.
  • Toezicht en privacy: Emotie-AI houdt vaak constante monitoring in van de gezichtsuitdrukkingen, stemmen of fysiologische signalen van mensen – wat duidelijke privacyzorgen oproept. De vrees is dat het een nieuw niveau van indringend toezicht mogelijk maakt, waarbij onze innerlijke emoties meetbare datapunten worden. Op de werkvloer bijvoorbeeld kunnen werknemers het gevoel krijgen dat ze onder een emotionele microscoop liggen, niet alleen beoordeeld op prestaties maar ook op of ze genoeg glimlachen of “enthousiast” genoeg klinken. Dit is geen sciencefiction; het gebeurt nu al op sommige plekken. Het eerder genoemde Chinese “smile to score”-systeem is daar een goed voorbeeld van – werknemers zijn bang om te fronsen of moe te kijken omdat een AI meekijkt en een “slechte houding” aan de baas zal rapporteren businessinsider.com. Dergelijke praktijken creëren een onderdrukkende omgeving en tasten de persoonlijke autonomie aan. Zelfs buiten de werkplek: stel je voor dat openbare camera’s niet alleen je gezicht herkennen, maar je ook als “nerveus” of “geagiteerd” labelen terwijl je voorbijloopt. Die data kan misbruikt worden voor profilering. In tegenstelling tot het aflezen van een thermostaat kan het aflezen van emoties zeer manipulatief zijn – mensen proberen hun ware gevoelens in het openbaar vaak te verbergen om goede redenen (privacy, beleefdheid), en het idee dat AI die gevoelens blootlegt, voelt Orwelliaans aan. Privacyvoorvechters wijzen erop dat mensen geen toestemming hebben gegeven om hun emoties te laten analyseren door winkelcentracamera’s of politie-CCTV. Toch wordt emotieherkenningssoftware aan sommige beveiligingssystemen toegevoegd zonder dat het publiek het weet. Er is ook het probleem van databeveiliging: emotionele data (video’s van gezichten, geluidsopnames) is gevoelige biometrische informatie. Als het wordt verzameld en opgeslagen, wie beschermt het en hoe lang? Een hack of lek van emotiedata (bijvoorbeeld opnames van therapiesessies, of camerabeelden gelabeld met iemands stemming) kan zeer schadelijk zijn. Kortom, het omzetten van ons emotionele leven in datastromen vormt “een krachtige nieuwe vorm van toezicht,” zoals een analyse van The Guardian het verwoordde theguardian.com. Deze zorg leidt tot oproepen voor strikte beperkingen op waar dergelijk toezicht mag plaatsvinden.
  • Toestemming en autonomie: Nauw verbonden met privacy is de kwestie van toestemming. Moeten mensen expliciet toestemming geven voordat een AI hun emoties analyseert? Velen vinden van wel – emotie-analyse is zo persoonlijk dat het expliciete toestemming vereist. Sommige bedrijven hanteren inderdaad opt-in-modellen. Zo is het beleid van Affectiva bij reclametests om alleen kijkers te registreren en analyseren die toestemming hebben gegeven en geïnformeerd zijn, en ze verbieden het gebruik van de technologie voor heimelijke surveillance of het identificeren van individuen mitsloan.mit.edu. Niet elke aanbieder is echter zo streng, en in de praktijk voelen werknemers of studenten zich mogelijk niet vrij om te weigeren als een werkgever of school een emotiebewakingsprogramma verplicht stelt (stel je voor dat je op je werk een polsbandje moet dragen dat je emoties meet). Dit roept zorgen op over dwang. Zullen werknemers in de toekomst worden gedwongen om een bepaald emotioneel gedrag te vertonen (bijvoorbeeld altijd “vrolijk” klinken tijdens gesprekken) omdat de AI meekijkt? Dat raakt aan vragen over menselijke waardigheid en de vrijheid om te voelen zonder geanalyseerd te worden. Ethisch gezien stellen velen dat individuen zelfbeschikking over hun eigen emotionele data moeten behouden. Je zou het recht moeten hebben om je emoties voor jezelf te houden, of in elk geval te bepalen wie/wat ze mag detecteren. Zonder duidelijke toestemming wordt emotieherkenning een ongewenste inbreuk op onze mentale privacy – wat sommige wetenschappers “mentale soevereiniteit” noemen. Het is bemoedigend dat de nieuwe EU-wet emotie-AI op de werkplek en op scholen expliciet verbiedt ongeacht toestemming (vanwege de machtsverhouding is echte vrijwillige toestemming twijfelachtig) williamfry.com, legalblogs.wolterskluwer.com. Dat wijst op een voorkeur voor het beschermen van mensen tegen druk om emotioneel transparant te zijn. Naarmate deze technologie zich verspreidt, kan het aandringen op toestemming – en mensen de mogelijkheid geven om het uit te schakelen – cruciaal zijn om persoonlijke autonomie te behouden.
  • Manipulatie en Misbruik: Een andere ethische dimensie is hoe inzichten uit emotie-AI kunnen worden gebruikt om mensen te beïnvloeden of uit te buiten. Emoties sturen veel van onze beslissingen, en als bedrijven of politieke actoren onze gevoelens kunnen detecteren, kunnen ze boodschappen afstemmen om op onze emoties in te spelen. We zagen een lowtechversie hiervan in het Cambridge Analytica-schandaal, waarbij Facebook-gegevens werden gebruikt om kiezers psychologisch te profileren en advertenties te richten om emotionele reacties uit te lokken. Emotie-AI zou zulke tactieken enorm kunnen versterken – het maakt in wezen “massale emotionele manipulatie” mogelijk. Zoals Randi Williams van de Algorithmic Justice League waarschuwt: “Wanneer we AI toegang geven tot de meest menselijke delen van onszelf, is er een groot risico dat individuen worden gemanipuleerd voor commerciële of politieke winst.” theguardian.com. Bijvoorbeeld, een marketing-AI zou kunnen opmerken dat je je op een bepaalde avond wat somber voelt (gedetecteerd via je slimme apparaten thuis), en een app zou op dat kwetsbare moment direct een advertentie voor comfortfood of retailtherapie kunnen pushen. Of een autoritaire overheid zou emotieherkenning kunnen gebruiken bij televisietoespraken: als het publiek er niet enthousiast genoeg uitziet, is het misschien tijd om de propaganda op te voeren of dissidenten te onderzoeken. Deze scenario’s klinken dystopisch, maar het zijn precies de soorten misbruikgevallen die experts nu willen voorkomen, voordat ze werkelijkheid worden. Zelfs in mildere vormen roept emotionele sturing ethische vragen op – is het oké dat een videogame je expres meer probeert te laten schrikken als het weet dat je bang bent, zoals in het horror-gamevoorbeeld? Sommigen vinden dat prima voor entertainment; anderen maken zich zorgen over de psychologische impact. De kern is dat emotie-AI een nieuw middel biedt om menselijk gedrag te beïnvloeden, en zonder regelgeving of ethische waarborgen kan dat middel in duistere richtingen worden gebruikt (bijvoorbeeld: “emotionele manipulatie” staat expliciet als verboden gebruik vermeld in de ethische richtlijnen van Hume AI theguardian.com). Transparantie is essentieel: als emotionele data wordt gebruikt om uitkomsten te beïnvloeden (zoals een sollicitatie-AI die je afwijst omdat die denkt dat je te weinig “passie” toonde in een gesprek), moet de persoon dat weten en de mogelijkheid hebben om het aan te vechten.
  • Regulering en Verantwoording: Gezien al deze zorgen, klinkt de roep om emotie-detecterende AI te reguleren steeds luider. Het EU-verbod in bepaalde domeinen is één benadering – waarmee in feite wordt gezegd dat sommige toepassingen verboden terrein zijn. Elders hebben experts voorgesteld om strenge validatie en auditing te eisen van alle ingezette emotie-AI-systemen, om te bewijzen dat ze accuraat en onbevooroordeeld zijn (een hoge lat die velen mogelijk niet halen). Organisaties zoals de ACLU en Article 19 hebben gepleit voor een volledig moratorium op affectherkenning in gevoelige gebieden, en bestempelen het als onwetenschappelijk en in strijd met de mensenrechten article19.org, businessinsider.com. Een ander aspect van regulering is gegevensbescherming: omdat emotionele data als biometrische of gezondheidsgegevens kunnen worden beschouwd, kunnen ze onder privacywetten zoals de AVG vallen, wat strikte toestemming, doellimiet en beveiliging vereist. Regelgevers bespreken ook of mensen het recht moeten hebben om zich te uitschrijven voor emotietracking in het openbaar en het recht om niet beoordeeld te worden door geautomatiseerde emotie-“scores”. Aan de andere kant pleiten sommige brancheorganisaties voor standaarden die emotie-AI op een verantwoorde manier mogelijk maken (zo heeft de IEEE ethische richtlijnen voor adaptieve emotie-responsieve systemen onderzocht). Duidelijk is dat de technologie de regels tot nu toe heeft ingehaald, maar 2024 markeert een keerpunt. Overheden erkennen emotieherkenning als een aparte categorie AI die toezicht vereist. In de komende jaren kunnen we meer beleid verwachten dat probeert grenzen te trekken rond hoe en waar deze tools gebruikt mogen worden – en om verantwoording af te dwingen bij degenen die ze inzetten. Want als een AI-systeem een emotionele beoordeling maakt die iemand schaadt (bijvoorbeeld iemand zonder reden als “hoog risico” bestempelt), wie is er dan verantwoordelijk? Op deze lastige vragen moeten nog antwoorden komen.

Uiteindelijk komt de ethiek neer op een simpel principe: alleen omdat we het kunnen proberen emoties te lezen met AI, betekent dat niet dat we het moeten doen? En zo ja, onder welke voorwaarden? Voorstanders geloven dat er humane en nuttige toepassingen zijn voor de technologie (vooral met toestemming en zorg), terwijl critici vrezen dat het hele uitgangspunt gebrekkig is en misbruik in de hand werkt. Dat brengt ons bij het laatste deel, waarin we direct horen van experts aan beide kanten van dit debat.

Perspectieven van Experts

Met emotie-detecterende AI op het kruispunt van innovatie en controverse, is het verhelderend om te horen wat toonaangevende stemmen in het veld te zeggen hebben. Experts zijn verdeeld – sommigen zien transformerend potentieel, anderen waarschuwen voor uiterste voorzichtigheid. Hier zijn enkele perspectieven in hun eigen woorden:

  • Optimisten en vernieuwers: Veel pioniers op het gebied van affective computing stellen dat het voorzien van machines van emotionele intelligentie de interactie tussen mens en machine ingrijpend kan verbeteren. “Denk aan de manier waarop je met andere mensen omgaat; je kijkt naar hun gezichten, je kijkt naar hun lichaam, en je past je interactie daarop aan,” legt Javier Hernandez uit, een onderzoeker in de Affective Computing-groep van MIT. “Hoe kan een machine effectief communiceren als hij je emotionele toestand niet kent?” mitsloan.mit.edu. Deze groep gelooft dat emotie-AI technologie responsiever, persoonlijker en zelfs meelevender kan maken. Rana el Kaliouby, medeoprichter van Affectiva en voorvechter van het “vermenselijken van technologie”, wijst erop dat onze emoties centraal staan in hoe we beslissingen nemen en contact maken. Zij ziet AI als een ondersteunende partner: “Het paradigma is niet mens versus machine – het is echt de machine die de mens versterkt,” zegt el Kaliouby, waarbij ze benadrukt dat AI menselijke capaciteiten moet versterken, niet vervangen mitsloan.mit.edu. In haar visie zou AI, mits op de juiste manier ingezet, bijvoorbeeld bestuurders kunnen helpen veilig te blijven, artsen kunnen helpen patiënten te begrijpen, of klanten het gevoel kunnen geven dat ze gehoord worden. El Kaliouby is enthousiast over het inzetten van emotie-AI voor het goede – ze noemt vaak projecten zoals het gebruik van emotionele analyse om kinderen met autisme te ondersteunen of om psychische problemen vroegtijdig te signaleren. En ondanks de zorgen, wanneer haar wordt gevraagd of we deze technologie überhaupt zouden moeten hebben, is haar antwoord een vastberaden ja. “Absoluut ja,” zei ze in 2024 – want naast de risico’s, “biedt AI geweldige oplossingen voor de grootste uitdagingen van de mensheid.” asisonline.org Haar standpunt, en dat van velen in de industrie, is dat we het kind niet met het badwater moeten weggooien. In plaats daarvan pleiten ze voor het ontwikkelen van verantwoorde, mensgerichte emotie-AI – met opt-in ontwerpen, transparantie en diversiteit in gedachten – zodat de voordelen (veiligere wegen, betere gezondheidszorg, boeiender onderwijs, enz.) gerealiseerd kunnen worden. Zoals el Kaliouby het zegt: “Elke sector wordt getransformeerd … met AI,” en emotie-AI, mits goed uitgevoerd, “zou die transformaties empathischer kunnen maken.” asisonline.org Voorstanders erkennen de uitdagingen, maar zijn over het algemeen van mening dat deze kunnen worden beperkt door doordacht ontwerp en beleid, in plaats van de technologie volledig af te wijzen.
  • Sceptici en critici: Aan de andere kant roept een koor van wetenschappers en ethici op om emotieherkenningstechnologie te vertragen of zelfs te stoppen, waarschuwend dat het gebaseerd is op wankele wetenschap en onaanvaardbare risico’s met zich meebrengt. We hebben al gehoord over het op onderzoek gebaseerde scepticisme van professor Lisa Feldman Barrett dat gezichtsuitdrukkingen betrouwbaar aan emoties kunnen worden gekoppeld. Barrett weerlegt ronduit veel beweringen van leveranciers: “De meeste bedrijven beweren nog steeds dat je naar een gezicht kunt kijken en kunt zien of iemand boos of verdrietig is… Dat is duidelijk niet het geval.” theguardian.com Haar zorg is dat, goed bedoeld of niet, deze systemen zullen falen – en mensen verkeerd beoordeeld zullen worden. Een andere uitgesproken criticus, Vidushi Marda van Article 19 (een digitale rechtenorganisatie), die emotieherkenning in China onderzocht, stelde dat het vakgebied “fundamenteel geworteld is in onwetenschappelijke ideeën” en dat het op grote schaal inzetten van zulke systemen “diep onethisch” is. businessinsider.com Privacyvoorvechters zoals Evan Selinger hebben emotieherkenning “de gevaarlijkste AI waar je nog nooit van hebt gehoord” genoemd, en stellen dat het kan leiden tot nieuwe vormen van discriminatie en manipulatie. En het zijn niet alleen academici: zelfs tech-insiders hebben hun twijfels. In een interview met TechCrunch waarschuwde Andrew Moore, een voormalig hoofd van Google Cloud AI, dat AI die emoties begrijpt “minstens een decennium verwijderd is van betrouwbaarheid” en dat misbruik vóór die tijd het vertrouwen in AI in het algemeen kan ondermijnen. Deze experts raden vaak strikte beperkingen aan. De ACLU is zelfs zo ver gegaan om verboden te steunen, waarbij beleidsanalist Daniel Kahn Gillmor schreef: “Op zijn minst zou niemand zijn rechten of levensonderhoud mogen laten afhangen van het emotionele giswerk van een AI”. Vanuit hun perspectief wegen de potentiële schade – onterechte arrestaties, bevooroordeelde aanwervingen, schendingen van mentale privacy – zwaarder dan de onzekere voordelen. Ze benadrukken ook dat mensen zelf moeite hebben om elkaars emoties correct te lezen over culturen en contexten heen, dus verwachten dat een machine dat kan is dwaasheid. In wezen roepen de sceptici de samenleving op om op de pauzeknop te drukken, eerst solide bewijs en ethische kaders te eisen, en te onthouden dat emoties intiem menselijk zijn – misschien niet iets wat we willen dat machines ontleden.

Het is interessant dat beide kampen uiteindelijk streven naar een betere toekomst, maar verschillen in aanpak. Optimisten richten zich op potentiële voordelen (empathie in AI, verbeterd welzijn), terwijl sceptici zich richten op het voorkomen van schade (onrecht, verlies van privacy). Er zijn ook gematigden die de belofte van de technologie erkennen, maar aandringen op strenge waarborgen. Zo pleit Erik Brynjolfsson voor het ontwikkelen van emotie-AI doordacht, en zegt: “wat belangrijk is om te onthouden, is dat wanneer het doordacht wordt gebruikt, de uiteindelijke voordelen groter kunnen en moeten zijn dan de kosten”, maar hij voegt er direct aan toe dat het “geschikt moet zijn voor alle mensen” en cultureel bewust mitsloan.mit.edu. Die middenweg houdt waarschijnlijk sterke regulering, transparantie van bedrijven en voortgezet onderzoek naar de nauwkeurigheid van deze systemen in.

Concluderend, kunstmatige intelligentie die emoties detecteert bevindt zich op een fascinerend kruispunt van technologie, psychologie en ethiek. De voorstanders geloven dat het onze apparaten en diensten veel beter kan afstemmen op onze behoeften – van auto’s die ons kalmeren tot apps die weten wanneer we het moeilijk hebben en hulp aanbieden. De critici waarschuwen terecht dat geen enkele AI therapeut, rechter of spion zou moeten spelen – onze gevoelens lezen op manieren die kunnen misleiden of onderdrukken. De waarheid hangt waarschijnlijk af van hoe we ervoor kiezen het te gebruiken. In 2025 is emotie-detecterende AI aanwezig en in ontwikkeling, maar ook onder streng toezicht. We hebben echte voordelen gezien in bepaalde niches (zoals monitoring van mentale gezondheid en adaptief onderwijs), maar ook echte tegenreacties (nieuwe wetten en verboden als reactie op misbruik).

Vooruitkijkend zal de samenleving een zorgvuldige weg moeten bewandelen: eisen van solide wetenschappelijke onderbouwing en eerlijkheid in alle emotieherkennende tools, het creëren van veilige privéruimtes vrij van emotionele surveillance, en democratisch bepalen waar de grens moet liggen tussen behulpzame empathie en schadelijke inbreuk. Eén ding is zeker: dit debat is nog maar net begonnen. AI wordt misschien beter in het weten of je stout of lief bent – maar het is aan ons allemaal om ervoor te zorgen dat deze krachtige mogelijkheid wordt gebruikt op manieren die de menselijke waardigheid respecteren en ons leven verrijken, in plaats van te verminderen.

Bronnen:

  • Gaudenz Boesch, “AI Emotion Recognition and Sentiment Analysis,” Viso Blogviso.ai (10 okt. 2024) viso.ai
  • Noor Al Mazrouei, “Emotion AI: Transforming Human-Machine Interaction,” TRENDS Research (17 feb. 2025) trendsresearch.org
  • Meredith Somers, “Emotion AI, explained,” MIT Sloan (8 mrt. 2019) mitsloan.mit.edu
  • Julie Bort, “’Emotion AI’ may be the next trend for business software, and that could be problematic,” TechCrunch (1 sept. 2024) techcrunch.com
  • Will Knight, “Experts Say ‘Emotion Recognition’ Lacks Scientific Foundation,” ACLU (18 juli 2019) aclu.org
  • Oscar Holland, “Ben je 80% boos en 2% verdrietig? Waarom ‘emotionele AI’ vol problemen zit,” The Guardian (23 juni 2024) theguardian.com
  • Valeria Vasquez en anderen, “Het verbod op AI-emotieherkenningstechnologieën op de werkplek onder de AI Act,” Wolters Kluwer – Global Workplace Law (feb. 2025) legalblogs.wolterskluwer.com
  • Cheryl Teh, “‘Elke glimlach die je faked’ — een AI-emotieherkenningssysteem kan beoordelen hoe ‘gelukkig’ Chinese werknemers op kantoor zijn,” Business Insider (16 juni 2021) businessinsider.com
  • AIMultiple Research Team, “Top 10+ Emotionele AI Voorbeelden & Gebruikstoepassingen in 2025,” AIMultiple (bijgewerkt 2 juni 2025) research.aimultiple.com
  • Sara Mosqueda, “El Kaliouby: Mensen kunnen AI inzetten om de wereld te verbeteren,” Security Management Magazine – GSX Daily (24 sept. 2024) asisonline.org
  • Dartmouth College, “Telefoon-app gebruikt AI om depressie te detecteren aan de hand van gezichtsuitdrukkingen,” Dartmouth News (27 feb. 2024) home.dartmouth.edu
AI Is Dangerous, but Not for the Reasons You Think | Sasha Luccioni | TED

Don't Miss