Yapay zeka artık sadece sayı hesaplamak ya da yüz tanımakla ilgili değil – nasıl hissettiğimizi okumayı öğreniyor. Sözde duygu tespit eden yapay zeka (diğer adıyla Duygu Yapay Zekası veya duygu bilişimi), insan duygularını anlamak için yüz ifadelerimizi, ses tonumuzu, mesajlarımızı ve hatta vücut sinyallerimizi analiz eden algoritmalar kullanır. Vaat edilen şey cazip: daha sezgisel uygulamalar, empatik robotlar ve ruh halimize yanıt veren kişiselleştirilmiş deneyimler. Ancak bu teknoloji araştırma laboratuvarlarından iş yerlerine, okullara ve kamusal alanlara taşındıkça büyük soruları da beraberinde getiriyor. Bu yapay zeka “zihin okuyucuları” tam olarak nasıl çalışıyor? Bugün nerelerde kullanılıyorlar? Ve neden bazı uzmanlar olasılıklar konusunda heyecanlıyken, diğerleri riskler konusunda endişeli? Bu kapsamlı raporda, duygu tespit eden yapay zekanın nasıl çalıştığını, sektörlerdeki gerçek dünya uygulamalarını, 2024–2025’teki en son gelişmeleri ve ortaya çıkan etik kaygıları – uzman görüşleri ve güncel gerçeklerle birlikte – inceleyeceğiz.
Duygu Tespit Eden Yapay Zeka Nedir ve Nasıl Çalışır?
Duygu tespit eden yapay zeka, çeşitli veri girdilerinden insan duygularını tanıyan ve yorumlayan algoritmaları ifade eder. Esasen, makinelere bir tür duygusal zeka kazandırmakla ilgilidir. Araştırmacılar bu alana genellikle duygu bilişimi derler. Yapay zeka sistemleri duyguları birden fazla kanaldan “okumaya” çalışır:
- Yüz Analizi: En yaygın yaklaşımlardan biri, yüz ifadelerini analiz etmek için bilgisayarlı görü kullanmaktır. Bir kamera, bir kişinin yüzünün görüntüsünü (veya videosunu) yakalar ve yapay zeka önce yüzü ve temel noktaları (gözler, kaşlar, ağız vb.) tespit eder. Ardından, derin öğrenme (genellikle evrişimli sinir ağları) kullanarak kas hareketlerini veya “mikro ifadeleri” inceler ve yüz ifadesini bir duygu kategorisine sınıflandırır viso.ai. Birçok sistem, mutluluk, üzüntü, öfke, korku, şaşkınlık, tiksinti ve nötrlük gibi temel ifadeleri tanıyacak şekilde eğitilmiştir botpenguin.com. Örneğin, gülümseyen bir ağız ve kırışmış gözler “mutlu” olarak etiketlenebilirken, çatık kaş “kızgın” olarak algılanabilir – ancak göreceğimiz gibi, bu her zaman bu kadar basit değildir.
- Ses Tonu Analizi: Ne söylediğimizin ötesinde, nasıl söylediğimiz de duyguyu iletebilir. Konuşma duygu tanıma algoritmaları, bir konuşmacının sesindeki ses desenlerini – perde, ses yüksekliği, tempo ve ton gibi – dinler. Yapay zeka modelleri bu ses özelliklerini (entonasyon, vurgu, ritim vb.) analiz ederek bir kişinin heyecanlı, sakin, üzgün vb. olup olmadığını çıkarır botpenguin.com. Örneğin, titrek ve ince bir ton korku veya öfkeyi gösterebilirken, yavaş ve düz bir ton üzüntü veya yorgunluk anlamına gelebilir. Bazı sistemler, duygusal durumlarla ilişkili belirli kelimeleri veya sözlü ipuçlarını (örneğin, titrek bir “İyiyim”) bile algılayabilir.
- Metin Duygu Analizi: Duygular yazılı olarak da ifade edilir. Yapay zeka, metinler üzerinde – sosyal medya gönderilerinden e-postalara veya sohbet mesajlarına kadar – doğal dil işleme (NLP) yaparak duyguyu tespit edebilir. Geleneksel duygu analizi metni olumlu, olumsuz veya nötr olarak sınıflandırır. Yeni nesil duygu yapay zekası ise kelime seçimi, bağlam ve noktalama işaretlerine bakarak metinden belirli duyguları tespit etmede daha ileri gider botpenguin.com. Örneğin, “Gerçekten çok heyecanlıyım!” ifadesi çok olumlu (mutlu/heyecanlı) olarak algılanırken, “Kendimi çok incinmiş ve yalnız hissediyorum…” ifadesi üzgün veya sıkıntılı olarak işaretlenebilir. Büyük dil modelleri ve özel olarak eğitilmiş sınıflandırıcılar, kelimelerimizin arkasındaki duygusal tonu analiz etmek için kullanılmaktadır.
- Diğer Biyometrik Sinyaller: Bazı gelişmiş sistemler fizyolojik ve davranışsal sinyalleri de dahil eder. Buna vücut dili (duruş, jestler), göz takibi (nereye baktığınız ve göz bebeklerinizin nasıl büyüdüğü), kalp atış hızı, cilt iletkenliği veya beyin dalgaları gibi giyilebilir cihazlar aracılığıyla elde edilen veriler dahil olabilir. Bu sinyaller stres veya heyecan hakkında ipucu verebilir – örneğin, yükselmiş kalp atışı ve terli avuç içleri kaygıyı gösterebilir. En yeni araştırmalarda, çok modlu duygu yapay zekası yüz, ses ve fizyolojik verileri daha kapsamlı bir tablo için birleştirir trendsresearch.org. Örneğin, bir arabanın sürücü izleme yapay zekası, yüzünüzü izlemek için bir kamera ve kalp atış hızınızı takip etmek için direksiyon sensörü kullanarak uyuklama veya öfke belirtilerini arayabilir.
Tüm bu yöntemler, insan duygusal ifadelerinin büyük veri kümeleri üzerinde makine öğrenimi içerir. Yapay zeka modelleri, örnekler üzerinde “eğitilir” – gösterilen duyguyla etiketlenmiş yüz görüntüleri, konuşmacının ruh haliyle etiketlenmiş ses klipleri vb. Zamanla, yapay zeka belirli girdilerle (belirli bir gülümseme, bir ses tonu) olası duygular arasında ilişki kuran kalıpları öğrenir. Esasen bu bir desen tanımadır: yapay zeka kendisi hiçbir şey hissetmez, ancak verdiğimiz sinyallere dayanarak duygularımız hakkında eğitimli bir tahminde bulunur.
Mevcut duygu tespit eden yapay zekaların genellikle yalnızca birkaç geniş duygusal kategori veya uyarılma seviyesini tanımakla sınırlı olduğunu belirtmek önemlidir. İnsan duyguları incelikli ve bağlama bağlıdır, bu da bunu yapay zeka için çok zorlu bir görev haline getirir. Yine de teknoloji hızla gelişmektedir. Bilgisayarla görme, konuşma analizi ve NLP’yi birleştirerek, günümüzün duygu yapay zekası doğru koşullarda bir kişinin duygusal durumunu orta düzeyde bir doğrulukla çıkarabilir. Bir raporda açıklandığı gibi, birden fazla tekniğin (yüz, ses, metin) entegre edilmesi makinelerin insan duygularını “daha yüksek doğrulukla” yorumlamasını sağlar ve etkileşimleri daha doğal ve duyarlı hale getirir trendsresearch.org. Sonraki bölümlerde, bu yeteneklerin gerçek dünyada nasıl uygulandığına ve 2024–2025 itibarıyla ne kadar ilerlediğine bakacağız.
Gerçek Dünyada Sektörler Arası Uygulamalar
Duygu tanıma yapay zekası, laboratuvarın ötesine geçerek çeşitli sektörlerde kullanılmaya başlandı. İşte bazı en belirgin uygulamalar ve sektöre göre kullanım alanları:
- Sağlık ve Zindelik: Duygu yapay zekası, ruh sağlığı ve hasta bakımı için bir araç olarak test ediliyor. Örneğin, araştırmacılar kullanıcıların yüzlerini ve seslerini depresyon veya anksiyete belirtileri açısından izleyen akıllı telefon uygulamaları geliştirdi home.dartmouth.edu. 2024 yılında yapılan bir çalışmada MoodCapture adlı bir uygulama tanıtıldı; bu uygulama, kullanıcının telefonunun kamerasını kullanarak her ekran kilidi açıldığında yüz ifadelerini analiz ediyor ve depresyonun erken belirtilerini tespit ediyor – denemelerde ruh hali değişikliklerini yaklaşık %75 doğrulukla belirledi home.dartmouth.edu. Terapistler de danışmanlık seanslarında hastanın ses tonundan duygusal durumunu anlamak için dinleyen yapay zekayı araştırıyor; bu, birinin giderek daha fazla sıkıntılı olup olmadığını potansiyel olarak bildirebilir. Hastanelerde ise, duygu algılayan kameralar hemşireler yokken hastaların ağrı veya stres seviyelerini izleyebilir. Otizmli bireyler için yardımcı duygu yapay zekası, başkalarının ifadelerini anlamalarına yardımcı olabilir – örneğin, bir giyilebilir cihaz veya tablet uygulaması, otizmli bir çocuğa “Anne mutlu” veya “Baba üzgün görünüyor” gibi etiketlerle uyarı vererek duygusal ipuçlarını öğrenmelerini sağlayabilir mitsloan.mit.edu.
- Pazarlama ve Müşteri Deneyimi: Şirketler, tüketicileri daha derin bir düzeyde anlamak için duygu yapay zekasını kullanıyor. Reklamcılar, reklam filmlerini veya ürün videolarını, web kamerası ile kaydedilmeye onay veren izleyici panelleriyle test edebiliyor; yapay zeka ise insanların hangi anlarda gülümsediğini, güldüğünü veya sıkıldığını görmek için yüz ifadelerini kare kare analiz ediyor. Aslında, Fortune 500 şirketlerinin yaklaşık %25’i reklam araştırmalarında izleyici etkileşimini ölçmek için duygu yapay zekasını kullandı mitsloan.mit.edu. Bu alandaki öncü firmalardan biri olan Affectiva (MIT bilim insanları tarafından ortaklaşa kuruldu), markaların izleyicilerin bilinçaltı, “içgüdüsel” tepkilerini reklamlara karşı yakalamasına ve bunları reklamı paylaşıp paylaşmayacakları veya ürünü satın alıp almayacakları gibi gerçek davranışlarla ilişkilendirmesine olanak tanıyor mitsloan.mit.edu. Reklamların ötesinde, perakendeciler mağazalarda müşteri memnuniyetini ölçmek için duygu algılayan kameraları araştırıyor (o hizmet etkileşimi sizi sinirli mi yoksa mutlu mu bıraktı?). Çevrimiçi ortamda, duygu analiziyle donatılmış sohbet botları, müşterinin ruh haline göre yanıtlarını ayarlamaya çalışıyor – örneğin, bir kullanıcı öfkeli görünüyorsa bir insan temsilciye yönlendirme yapıyor. Hatta fiziksel reklam panoları bile duygu analizini denedi: Brezilya’da, etkileşimli bir metro reklam sistemi, kamera görüntülerini kullanarak yolcuların ifadelerini (mutlu, nötr, şaşırmış, memnuniyetsiz) sınıflandırdı ve ardından reklam içeriğini gerçek zamanlı olarak kalabalığın ruh haline daha iyi uyacak şekilde değiştirdi research.aimultiple.com.
- Eğitim: Sınıflar ve e-öğrenme platformları, öğrenci duygularını ve dikkatini ölçmek için yapay zekâ ile denemeler yapıyor. Amaç, duyarlı öğrenme ortamları yaratmak. Örneğin, Hindistan’daki bir çevrim içi özel ders şirketi, öğrencilerin canlı dersler sırasında katılımını ve yorgunluğunu izlemek için öğrencilerin web kameraları aracılığıyla duygu tanıma kullandıresearch.aimultiple.comresearch.aimultiple.com. Sistem, göz hareketlerini ve yüz ifadelerini izleyerek “dikkat puanları” üretiyor ve öğretmenlerin öğrencilerin ne zaman odak kaybettiğini belirlemesine yardımcı oluyor. Bazı yüksek teknolojili sınıflarda, kameralar (tartışmalı olarak) öğrencilerin yüzlerini kafa karışıklığı veya sıkılma belirtileri için taramak amacıyla kullanıldı, böylece öğretmenler derslerini ayarlayabiliyor legalblogs.wolterskluwer.com. Çin’den, okulların öğrencilerin gün boyunca duygusal durumlarını (mutluluk veya öfke gibi) kaydeden yüz tanıma kameralarını pilot olarak kullandığına dair raporlar bile var businessinsider.com. Teorik olarak, bu tür araçlar eğitimi kişiselleştirebilir – bir eğitmen botu, hayal kırıklığı algılarsa cesaretlendirme sunabilir – ancak aynı zamanda gözetim hakkında tartışmaları da gündeme getiriyor (buna daha sonra değineceğiz).
- Otomotiv: Otomobil üreticileri, güvenliği ve sürüş deneyimini geliştirmek için araçlara duygu yapay zekâsı entegre ediyor. Sürücü izleme sistemleri, gösterge panelindeki kameralarla yüzünüzü ve duruşunuzu izleyerek uyuklama veya dikkatsizlik olup olmadığını kontrol ediyor. Yapay zekâ, göz kapaklarınızın düştüğünü veya duruşunuzun bozulduğunu (yorgunluk belirtileri) görürse bir uyarı verebiliyor. Lüks markalar, sürücülerin duygusal durumlarını ölçmeye çalışarak daha da ileri gidiyor: örneğin, bir sürücünün üzgün veya öfkeli (yol öfkesi) olup olmadığını tespit edip müdahale ediyor – belki müziği yumuşatıyor ya da aracın hızını sınırlıyor mitsloan.mit.edu. Affectiva, şu anda Smart Eye’ın bir parçası, hem sürücüyü hem de yolcuları izleyen bir otomotiv yapay zekâ platformuna sahip. Sürücünün gülüp gülmediğini veya tartışıp tartışmadığını ya da yolcuların endişeli olup olmadığını anlayabiliyor ve buna göre araç ayarlarını düzenleyebiliyor (aracın stres algılarsa güvenlik sistemlerini sıkılaştırdığını hayal edin) mitsloan.mit.edu. Yarı otonom araçlarda, duygusal yapay zekâ kontrolü devralmak için çok mu dikkatinizin dağıldığına karar verebilir. Otomotiv kullanım senaryolarının tamamı, yolda güvenliği, konforu ve kişiselleştirmeyi artırmak için duygu tanımayı kullanmakla ilgili.
- Eğlence ve Oyun: Duygu yapay zekası sayesinde eğlence daha etkileşimli hale geliyor. Video oyunu geliştiricileri, oyuncunun duygularına tepki veren oyunlar yapmaya başladılar. Dikkate değer bir örnek, “Nevermind,” oyuncunun web kamerasını (veya bir biyogeribildirim sensörünü) kullanarak stresi algılayan psikolojik gerilim oyunudur – eğer korktuğunuzu algılarsa, oyun gerçekten daha zor hale gelir ve daha fazla korku unsuru ekler, sakin kalırsanız oyun kolaylaşır research.aimultiple.com. Bu, korku seviyenize uyum sağlayan dinamik bir korku deneyimi yaratır. Film ve televizyonda ise stüdyolar, sahnelere verilen duygusal tepkileri görmek için test izleyicilerinde yüz takibi denemeleri yapıyorlar (hikayedeki sürpriz gerçekten izleyicileri şaşırttı mı? Komedi sahnesi güldürdü mü?). Ayrıca kişiselleştirilmiş içerik araştırmaları da var: dizüstü bilgisayarınızın kamerasını kullanarak yüzünüzü gözlemleyip mevcut ruh halinize uygun filmler önerebilen bir yayın hizmeti hayal edin (bazı seyahat siteleri, kullanıcının yüz ifadesine göre destinasyon önerileri bile denedi research.aimultiple.com). Yaygın “ruh haline göre” içerik önerileri hâlâ deneysel olsa da, yapay zekanın eğlenceyle birleşmesi yeni, sürükleyici ve etkileşimli medya biçimlerinin önünü açıyor.
- Hukuk Uygulaması ve Güvenlik: Duygu tanıma, güvenlik uygulamaları için düşünülüyor, ancak bu alan en tartışmalı olanı. Bazı polis departmanları, canlı CCTV görüntülerini veya vücut kamerası kayıtlarını tarayarak “şüpheli” davranışları veya potansiyel saldırganlığı işaretleyecek yapay zekayı değerlendirdi. Örneğin, algoritmalar ses kayıtlarını analiz ederek bir 911 arayanının veya gözaltındaki birinin ne zaman saldırganlaşabileceğini tespit etmek için stres veya öfke arayabiliyor. Kamu güvenliği için öfke tonlarını veya bağırmayı dinleyerek kavgaları önceden güvenliğe bildiren “saldırganlık dedektörleri” pazarlanıyor. Çin’de Taigusys adlı bir şirket, ofislerde çalışanların yüzlerini toplu olarak izleyen ve her kişinin nasıl hissettiğini – mutlu, nötr, öfkeli veya stresli olup olmadığını – tespit ettiğini iddia eden bir yapay zeka gözetim sistemi geliştirdi businessinsider.com. Sistem, sahte bir gülümseme takınıp takınmadığınızı bile bildiğini iddia ediyor ve çok fazla “negatif” duygu gösteren çalışanlar hakkında, müdahale gerekebileceğini veya şüpheli bir şeyler yapıyor olabileceklerini öne süren raporlar üretiyor businessinsider.com. Hapishanelerde benzer teknolojiler, mahkumların duygusal durumlarını izlemek için test edildi. Bazı ülkelerde sınır güvenliği pilotlarında, yolcuların mikro ifadelerini “aldatma işaretleri” için izleyen yapay zeka yalan makineleri denendi. Polis sorgularında ise, bir şüphelinin gergin olup olmadığını anlamaya çalışan ses analitiğiyle deneyler yapılıyor. Ancak, hiçbir polis gücü bu araçlara tek başına kanıt olarak güvenmiyor – savunucuları bile bunların yalnızca tamamlayıcı olması gerektiğini söylüyor. Tartışacağımız gibi, uzmanlar burada aşırı dikkatli olunması gerektiğini vurguluyor çünkü yanlış okumalar (örneğin, bir yapay zekanın masum bir kişiyi yanlışlıkla “öfkeli” veya “aldatıcı” olarak işaretlemesi) adalet ve güvenlik bağlamında ciddi sonuçlara yol açabilir.
Tüm bu sektörlerde, itici fikir şudur: Eğer makineler duygularımızı anlayabilirse, bizimle daha doğal ve etkili bir şekilde etkileşime geçebilirler. Hayal kırıklığını algılayan bir yapay zeka eğitmeni dersi yeniden ifade edebilir. Sesinizde sabırsızlık duyan bir müşteri hizmetleri botu, hemen bir insan yöneticiyi arayabilir. Yorgun olduğunuzu bilen bir araba sizi canlandırabilir ya da sürüşü devralabilir. Duygu Yapay Zekası esasen teknolojiyi daha empatik hale getirmeyi amaçlar, insanların makinelere uyum sağlamasını zorlamak yerine, teknolojinin insanlara uyum sağlamasını hedefler trendsresearch.org. Bu, büyüleyici bir sınır – ve bir sonraki bölümde en son gelişmelerle birlikte hızla ilerlediği gösteriliyor.
En Son Gelişmeler ve Haberler (2024–2025)
Duygu algılayan yapay zeka son iki yılda hızlı bir gelişme gösterdi; teknik atılımlardan düzenleyici engellere kadar birçok alanda ilerleme kaydedildi. İşte son dönemdeki bazı önemli eğilimler ve haberler:
- Yükselen Yatırımlar ve Startuplar: İş dünyası duygusal yapay zekaya odaklanmış durumda. Sektör analistleri, “duygu yapay zekası”nın özellikle şirketler daha fazla sohbet botu ve duygusal farkındalığa sahip sanal asistanlar kullandıkça kurumsal yazılımda sıcak bir trend haline geldiğini bildiriyor techcrunch.com. Yakın tarihli bir PitchBook araştırma raporu, duygu yapay zekası benimsenmesinin artacağını ve yapay zeka ile etkileşimleri daha insan benzeri hale getireceğini öngörüyor techcrunch.com. Bu sektöre risk sermayesi akıyor: örneğin, önde gelen bir konuşma yapay zekası şirketi olan Uniphore, müşteri hizmeti aramalarında müşteri duygularını okuyabilen yapay zeka geliştirmek için 600 milyon dolardan fazla (2022’deki 400 milyon dolarlık bir tur dahil) yatırım aldı techcrunch.com. Pek çok startup bu alana giriyor – MorphCast, audEERING, Voicesense, SuperCEED, Siena AI gibi şirketler, yüz ve ses ipuçlarını büyük ölçekte analiz eden araçlar geliştiriyor techcrunch.com. Pazar tahminleri de bu ivmeyi yansıtıyor: bir rapor, küresel duygu tespiti ve tanıma pazarının 2024’te yaklaşık 3–4 milyar dolardan beş yıl içinde 7 milyar doların üzerine çıkacağını tahmin ediyor technologyslegaledge.com, bir başka analiz ise 2031’e kadar 173 milyar dolara kadar çıkabileceğini öngörüyor (bu tür tahminler değişkenlik gösterebilir) research.aimultiple.com. Açıkça görülüyor ki, birçok işletme duyguları ölçebilen yapay zekada ticari bir potansiyel görüyor – ister satışları artırmak, ister müşteri memnuniyetini iyileştirmek, ister güvenliği artırmak için.
- Yeni Teknolojik Yetenekler: Araştırma cephesinde, yapay zeka nüanslı duyguları anlamada giderek daha iyi hale geliyor. 2024’te çarpıcı bir örnek, Groningen Üniversitesi’nde bir projenin, yapay zekayı konuşulan dilde alaycılığı tespit etmek için eğitmesiydi theguardian.com. Sisteme Friends ve The Big Bang Theory gibi sitcomlardan alınan senaryolu diyaloglar yüklenerek, araştırmacılar yapay zekaya alaycı konuşmanın sesli kalıplarını (ör. abartılı tonlama veya uzatma) tanımayı öğrettiler. Model, sesli veride alaycılığı yaklaşık %75 doğrulukla tespit edebildi theguardian.com. Bu önemli çünkü alaycılık, algoritmaların (ve bazen insanların!) algılaması için ünlü şekilde zordur, ancak iletişimde gerçek duyguyu anlamak için anahtardır. Bu gibi alanlardaki ilerleme, duygu yapay zekasının sadece “mutlu vs. üzgün” tespitinin ötesine geçerek daha karmaşık sosyal sinyallere yöneldiğini gösteriyor. Benzer şekilde, çok modlu modeller de gelişiyor: metin, ses ve yüz verisini birleştirerek daha bağlama duyarlı bir duygu analizi yapan yapay zekalar görüyoruz. Hume AI gibi şirketler (eski bir Google araştırmacısı tarafından kuruldu) sadece ne söylediğinize değil, nasıl söylediğinize de yanıt veren empatik sesli arayüzler geliştiriyor ve yapay zeka sohbetlerinin duygusal olarak daha uyumlu hissettirilmesini hedefliyor theguardian.com. Hume, “empatik yapay zeka” geliştirmesini yönlendirmek için bir etik kurulu bile kurdu theguardian.com ve temkinli ilerleme ihtiyacını kabul etti. Donanım tarafında ise, kamera ve sensör teknolojisi her yerde ve ucuz, bu da duygu algılama yeteneklerini telefonlara, arabalara ve akıllı ev cihazlarına entegre etmeyi her zamankinden daha kolay hale getiriyor.
- Ana Akım Benimseme ve Tartışmalar: Duygu yapay zekâsı yaygınlaşırken, bazı engellerle de karşılaşıyor. Yüksek profilli bir örnek: video konferans devi Zoom‘un, toplantı katılımcılarının ilgili mi yoksa dikkati dağılmış mı olduğunu toplantı sahiplerine bildiren duygu tespit özellikleri eklemeyi düşündüğü bildirildi – ancak gizlilikle ilgili kamuoyu tepkisinin ardından, Zoom 2022 ortasında böyle bir duygu izleme yapay zekâsını uygulamaya koyma “planı olmadığını” açıkladı. Benzer şekilde, işe alım platformu HireVue, video mülakatlarında iş başvuru sahiplerinin yüz ifadelerini analiz etmek için yapay zekâ kullanmaya başlamıştı, ancak 2021 yılına gelindiğinde bilimsel eleştiriler ve kamuoyu endişeleri nedeniyle yüz analizi bileşenini bıraktı. Bu olaylar, 2024 yılı için zemin hazırladı; artık iş yerinde veya tüketici uygulamalarında duygu tanımanın fikri bile şaşkınlık yaratıyor (ve bu, bir yapay zekânın takip etmesi gereken türden bir kaş hareketi değil). Haberlerde, kötüye kullanım endişeleri görmeye devam ediyoruz: örneğin, Çinli teknoloji şirketlerinin çalışanlar üzerinde duygu tanıma uyguladığına dair haberler uluslararası eleştiri topladı businessinsider.com. Bazı satıcılar güvenlik için “yalan tespit eden yapay zekâ”yı tanıtsa da, uzmanlar bunların çoğunu şanstan pek de iyi olmayan sistemler olarak çürüttü.
- Düzenleyici Hamleler: Belki de 2024’teki en büyük gelişme, hükümetlerin duygu yapay zekasına müdahale etmeye başlaması oldu. Mayıs 2024’te Avrupa Birliği, yapay zekayı düzenleyen kapsamlı bir yasa olan AB Yapay Zeka Yasası’nı tamamladı. Özellikle, bu yasa bazı bağlamlarda gerçek zamanlı duygu tanıma için yapay zekanın kullanımını “kabul edilemez bir risk” olarak insan haklarına karşı theguardian.com yasaklıyor. Özellikle, AB; işyerlerinde, okullarda veya diğer kamu kurumlarında insanların duygularını çıkardığını iddia eden yapay zeka sistemlerini (sadece sağlık veya güvenlik gibi dar istisnalar dışında) yasaklayacak legalblogs.wolterskluwer.com. AB yasa koyucuları, bu tür ortamlarda duygu tanımanın istilacı ve güvenilmez olduğuna ve adaletsiz sonuçlara yol açabileceğine karar verdi. (Sadece birinin dışa vurduğu ifadeyi tanımlayan bir yapay zeka ile – ki bu izin verilebilir – o kişinin içsel olarak ne hissettiğini ilan eden bir yapay zeka arasında ayrım yaptılar; bu ise yasaklanacak theguardian.com.) Bu yasal tutum, türünün ilk örneklerinden biri olarak, politika yapıcılar arasında duygu yapay zekasının geçerliliği ve etiği konusunda artan şüpheciliği yansıtıyor. ABD’de ise federal düzeyde bir yasak yok, ancak bazı bölgeler kısıtlamaları değerlendiriyor ve ACLU ile diğer sivil haklar grupları, polislikte ve istihdamda duygu tanıma kullanımının durdurulmasını talep etti aclu.org, businessinsider.com. Düzenleyicilerin duygu yapay zekasını sosyal puanlama ve bilinçaltı manipülasyon gibi şeylerle (ki bunlar da AB Yasası tarafından yasaklandı) aynı kategoriye koyması güçlü bir mesaj veriyor: 2025 ve sonrasında, duygularımızı okuduğunu iddia eden her türlü yapay zeka için daha sıkı denetim ve standartlar göreceğiz gibi görünüyor.
Özetle, son bir iki yıl dönüm noktası oldu. Duygu algılayan yapay zeka her zamankinden daha yaygın, sessizce müşteri hizmetlerine, arabalara ve uygulamalara giriyor – ve aynı zamanda her zamankinden daha tartışmalı, uzmanlar ve düzenleyiciler frene basıyor. Teknoloji olgunlaştıkça, yapay zekanın insan duygularını gerçekten anlayıp anlayamayacağı ve eğer anlıyorsa, bu gücü kimin kullanabileceği konusunda daha fazla tartışma duymayı bekleyin. Bu sorular bizi doğrudan bir sonraki konuya götürüyor: etik değerlendirmeler.
Etik Değerlendirmeler ve Endişeler
Duygu tanıma yapay zekasının yükselişi yoğun etik tartışmaları başlattı. Birinin duygularını okumak, bir sıcaklık göstergesini okumak gibi değildir – kişisel, çoğu zaman özel hayatımızın alanlarına girer. İşte uzmanların ve savunucuların gündeme getirdiği temel endişeler:
- Güvenilirlik ve Bilimsel Geçerlilik: Temel bir sorun, bu sistemlerin gerçekten iddia edildiği gibi çalışıp çalışmadığıdır. İnsan duyguları karmaşıktır, bağlama bağlıdır ve her zaman yüzeyde görünmez. Psikologlar, bir yüz ifadesi ile içsel bir duygu arasında basit bir bire bir eşleşme olmadığını vurgular. Bir kişi üzgünken gülümseyebilir ya da konsantre olurken kaşlarını çatabilir – ifadeler bireyler ve kültürler arasında değişir. 2019 yılında, psikolog Lisa Feldman Barrett liderliğinde yapılan ve 1.000’den fazla çalışmanın incelendiği büyük bir derleme, “bir kişinin duygusal durumu yalnızca yüz hareketlerinden güvenilir şekilde çıkarılamaz” sonucuna vardı aclu.org. Barrett canlı bir örnek veriyor: “Kaşlarını çatan bir yüz öfkenin ifadesi olabilir de olmayabilir de… insanlar öfkeliyken kaşlarını çatar, ama aynı zamanda kafası karışıkken ya da gazı varken de!”aclu.org. Kısacası, bağlam duygularda son derece önemlidir ve yapay zeka genellikle bağlama sahip değildir. Barrett ve diğerleri, günümüz algoritmalarının yüz kası hareketlerini veya ses tonlamalarını tespit etmede çok iyi olduğunu, ancak bunların duygusal olarak ne anlama geldiğini gerçekten bilemeyeceklerini savunuyorlar aclu.org. Barrett bir röportajda açıkça şöyle diyor: “Otomatik duygu tanıma diye bir şey yok. En iyi algoritmalar bir yüz ifadesini tespit edebilir, ama bunun ne anlama geldiğini çıkarmak için donanımlı değiller” aclu.org. Bu şüphecilik bilim camiasında yaygındır. Psikologlar arasında bile duyguların net, üzerinde uzlaşılmış bir tanımı yokken, bunları tespit edecek bir yapay zeka inşa etmek teorik olarak zayıf bir temele dayanıyor theguardian.com. Pratikte bu, yanlış yorumlama tehlikesini doğurur: Bir yapay zeka, yanlış okunan bir ipucu nedeniyle bir kişiyi “öfkeli” ya da “aldatıcı” olarak yanlış etiketlerse, bu haksız sonuçlara yol açabilir (güvenlik tarafından işaretlenmek, iş görüşmesine alınmamak vb.). Basitçe söylemek gerekirse, eleştirmenler mevcut duygu tanıma teknolojisinin en iyi ihtimalle bir yaklaşım – en kötü ihtimalle ise dijital frenoloji (sahtebilim) olduğunu, özellikle de bireyleri yargılamak için kullanıldığında article19.org.
- Önyargı ve Adalet: Birçok yapay zeka sistemi gibi, duygu tespit eden algoritmalar da eğitim verilerinde bulunan önyargıları yansıtabilir ve hatta artırabilir. En büyük endişelerden biri kültürel ve ırksal önyargıdır. Örneğin, bir yapay zeka çoğunlukla Batılı deneklerin ders kitaplarındaki ifadeleriyle eğitildiyse, farklı etnik veya kültürel geçmişe sahip insanları yanlış okuyabilir. Bunun halihazırda yaşandığına dair kanıtlar var. 2023 yılında yapılan bir araştırma, bazı ticari duygu yapay zekası sistemlerinin Siyahi insanların yüz ifadelerini diğer gruplara kıyasla tutarlı bir şekilde daha olumsuz veya öfkeli olarak değerlendirdiğini ortaya koydu theguardian.com. Başka bir deyişle, Siyahi bir erkeğin yüzündeki nötr bir ifade, yapay zeka tarafından “öfkeli” olarak yorumlanabilirken, aynı şey beyaz bir kişi için geçerli olmayabilir – bu da güvenlik taramaları veya işyeri değerlendirmeleri gibi konularda bariz sonuçları olan rahatsız edici bir önyargıdır theguardian.com. “Algoritmalarınız, eğitim materyaliniz kadar iyidir,” diyor Barrett. “Eğer eğitim materyaliniz önyargılıysa, bu önyargıyı koda kazımış oluyorsunuz.” theguardian.com. Kültür aynı zamanda duygularımızı nasıl ifade ettiğimizi de etkiler: bir gülümseme farklı bağlamlarda farklı şeyler ifade edebilir ve jestler ya da tonlamalar evrensel değildir. MIT’den Erik Brynjolfsson, duygu tanıma teknolojisinin çeşitliliğe duyarlı olması gerektiği konusunda uyarıyor: “Afrikalı Amerikalı bir yüzde duyguları tanımak, sadece Kafkas yüzlerinde eğitilmiş bir makine için zor olabilir. Ve bir kültürdeki jestler veya ses tonları, başka bir kültürde çok farklı anlamlara gelebilir” mitsloan.mit.edu. Bu incelikler ele alınmazsa, teknoloji belirli grupları sistematik olarak yanlış yorumlayabilir veya dezavantajlı duruma düşürebilir – esasen önyargıyı kodlamak ve bunu “duyguları okuma” kisvesi altında yapmak anlamına gelir. Önyargı sadece demografiyle ilgili değildir; bağlamsal önyargı da vardır (örneğin, gürültülü bir ortamda bir yapay zeka, yükseltilmiş sesleri öfke olarak yorumlayabilir, oysa sadece ortam gürültülüdür). Duygu yapay zekasında adaleti sağlamak büyük bir zorluktur ve şu ana kadar birçok sistem, tüm insanlar için eşit derecede iyi çalıştığını gösterememiştir.
- Gözetim ve Mahremiyet: Duygu yapay zekâsı genellikle insanların ifadelerinin, seslerinin veya fizyolojik sinyallerinin sürekli izlenmesini içerir – bu da bariz mahremiyet endişelerini gündeme getirir. Endişe, bunun içsel duygularımızın izlenebilir veri noktalarına dönüştüğü yeni bir istilacı gözetim düzeyini mümkün kılabileceğidir. Örneğin işyerlerinde, çalışanlar kendilerini duygusal bir mikroskop altında hissedebilir, sadece performanslarına göre değil, yeterince gülümseyip gülümsemediklerine veya yeterince “hevesli” görünüp görünmediklerine göre de yargılanabilirler. Bu bilim kurgu değil; bazı yerlerde zaten oluyor. Daha önce bahsedilen Çin’in “gülümse puan kazan” sistemi bunun en iyi örneği – çalışanlar, bir yapay zekâ izlediği ve “kötü tutum”u patronlara bildireceği için kaşlarını çatmaktan veya yorgun görünmekten korkuyorlar businessinsider.com. Bu tür uygulamalar baskıcı bir ortam yaratır ve kişisel özerkliği aşındırır. İşyerinin dışında bile, yüzünüzü tanıyan ve yanından geçerken sizi “gergin” veya “huzursuz” olarak etiketleyen kamu kameralarını hayal edin. Bu veriler profilleme için kötüye kullanılabilir. Bir termostatı okumaktan farklı olarak, duyguyu okumak son derece manipülatif olabilir – insanlar genellikle gerçek duygularını kamusal alanda iyi nedenlerle (mahremiyet, nezaket) gizlemeye çalışır ve yapay zekânın bunları ayıklaması Orwellvari hissettirir. Mahremiyet savunucuları, insanların alışveriş merkezi kameraları veya polis CCTV’leri tarafından duygularının incelenmesine rıza göstermediğine dikkat çekiyor. Yine de duygu tanıma yazılımı bazı güvenlik sistemlerine kamuoyunun bilgisi olmadan ekleniyor. Ayrıca veri güvenliği meselesi de var: duygusal veriler (yüz videoları, ses kayıtları) hassas biyometrik bilgilerdir. Eğer toplanır ve saklanırsa, bunu kim koruyacak ve ne kadar süreyle? Duygu verilerinin (örneğin terapi seanslarının kayıtları veya birinin ruh haliyle etiketlenmiş kamera görüntüleri) bir sızıntısı veya hacklenmesi son derece zararlı olabilir. Kısacası, duygusal hayatlarımızı veri akışlarına dönüştürmek, Guardian’ın bir analizinde belirttiği gibi “güçlü bir yeni gözetim biçimi” sunuyor theguardian.com. Bu endişe, bu tür izlemenin nerede yapılabileceğine dair sıkı sınırlar getirilmesi çağrılarını tetikliyor.
- Rıza ve Özerklik: Gizlilikle yakından ilişkili olan bir diğer konu da rıza meselesidir. Bir yapay zekânın duygularını analiz etmesi için insanların onay vermesi gerekir mi? Birçok kişi evet diyor – duygusal analiz o kadar kişisel ki açık izin gerektiriyor. Bazı şirketler katılımla-onay modellerini uyguluyor. Örneğin, Affectiva’nın reklam testi politikası, yalnızca onay vermiş ve bilgilendirilmiş izleyicileri kaydetmek ve analiz etmek üzerine kurulu ve teknolojinin gizli gözetim veya bireylerin tanımlanması için kullanılmasını yasaklıyor mitsloan.mit.edu. Ancak her satıcı bu kadar katı değil ve pratikte çalışanlar veya öğrenciler, bir işveren ya da okul bir duygu izleme programı zorunlu kılarsa reddedemeyeceklerini hissedebilirler (işte duygu algılayan bir bileklik takmanızın istendiğini hayal edin). Bu durum zorlama endişelerini gündeme getiriyor. Gelecekte çalışanlar, yapay zekâ izlediği için belirli bir duygusal ifadeyi sürdürmeye (örneğin, aramalarda her zaman “mutlu” ses çıkarmaya) zorlanacak mı? Bu, insan onuru ve analiz edilmeden hissetme özgürlüğü sorularına giriyor. Etik açıdan, birçok kişi bireylerin kendi duygusal verileri üzerinde irade sahibi olmaları gerektiğini savunuyor. Duygularınızı kendinize saklama ya da en azından kimlerin/bir şeylerin onları algılayabileceğini kontrol etme hakkınız olmalı. Açık rıza olmadan, duygu tanıma zihinsel mahremiyetimize istenmeyen bir müdahale haline geliyor – bazı akademisyenlerin “zihinsel egemenlik” dediği şey. Sevindirici olan, yeni AB yasasının işyerlerinde ve okullarda duygu yapay zekâsını rıza olsa bile açıkça yasaklaması williamfry.com, legalblogs.wolterskluwer.com. Bu, insanların duygusal şeffaflığa zorlanmaktan korunmasına yönelik bir eğilimi gösteriyor. Bu teknoloji yayılırken, rızada ısrar etmek – ve insanlara bunu kapatma imkânı vermek – kişisel özerkliği korumak için çok önemli olabilir.
- Manipülasyon ve Kötüye Kullanım: Duygu yapay zekasından elde edilen içgörülerin insanları etkilemek veya sömürmek için nasıl kullanılabileceği de başka bir etik boyuttur. Duygular, kararlarımızın çoğunu yönlendirir ve eğer şirketler veya siyasi aktörler hislerimizi tespit edebilirse, mesajlarını bizi tetiklemek için özelleştirebilirler. Bunun düşük teknolojili bir versiyonunu Cambridge Analytica skandalında gördük; burada Facebook verileri, seçmenleri psikolojik olarak profillemek ve duygusal tepkileri tetiklemek için reklam hedeflemede kullanılmıştı. Duygu yapay zekası bu tür taktikleri süper güçlendirebilir – esasen “kitlesel duygusal manipülasyon”u mümkün kılar. Algorithmic Justice League’den Randi Williams’ın uyardığı gibi, “Yapay zekâ en insani yanlarımıza dokunduğunda, bireylerin ticari veya siyasi kazanç için manipüle edilme riski çok yüksektir.” theguardian.com. Örneğin, bir pazarlama yapay zekâsı, bir akşam biraz üzgün olduğunuzu fark edebilir (akıllı ev cihazlarınız aracılığıyla tespit edilir) ve bir uygulama, tam da o savunmasız anda size anında bir rahatlatıcı yiyecek veya alışveriş reklamı gönderebilir. Ya da otoriter bir hükümet, televizyon konuşmalarında duygu tanıma kullanabilir: halk yeterince coşkulu görünmüyorsa, belki de propaganda artırılmalı ya da muhalifler araştırılmalı. Bu senaryolar distopik görünebilir, ancak bunlar, uzmanların şimdi, henüz gerçekleşmeden önce önlemeye çalıştığı kötüye kullanım vakalarıdır. Daha hafif biçimlerinde bile, duygusal yönlendirme etik soruları gündeme getirir – bir video oyununun, bildiğinde sizi daha çok korkutmaya çalışması (korku oyunu örneğinde olduğu gibi) kabul edilebilir mi? Kimileri bunun eğlence için uygun olduğunu söyler; diğerleri ise psikolojik etkisinden endişe duyar. Sonuç olarak, duygu yapay zekası insan davranışını etkilemek için yeni bir kaldıraç sunar ve düzenlemeler veya etik sınırlar olmadan, bu kaldıraç karanlık yönlere çekilebilir (örneğin, “duygusal manipülasyon” Hume AI’ın etik kurallarında açıkça yasaklanmış bir kullanım durumu olarak listelenmiştir theguardian.com). Şeffaflık çok önemlidir: Eğer duygusal veriler sonuçları etkilemek için kullanılıyorsa (örneğin, bir işe alım yapay zekâsı, bir mülakatta “tutku” eksikliği hissettiği için sizi reddediyorsa), kişinin bunu bilmesi ve itiraz etme hakkı olmalıdır.
- Düzenleme ve Hesap Verebilirlik: Tüm bu endişeler göz önüne alındığında, duyguları algılayan yapay zekânın düzenlenmesi yönünde artan çağrılar var. AB’nin belirli alanlardaki yasağı bir yaklaşım – temelde bazı kullanımların yasak olduğunu söylüyor. Başka yerlerde, uzmanlar, uygulanan herhangi bir duygu yapay zekâ sisteminin doğrulama ve denetimden geçmesini zorunlu kılmayı önerdiler; böylece bu sistemlerin doğru ve tarafsız olduklarını kanıtlamaları gerekecek (ki bu, çoğunun karşılayamayacağı yüksek bir standart). ACLU ve Article 19 gibi kuruluşlar, hassas alanlarda duygu tanımanın tamamen durdurulmasını savundu, bunu bilimsel olmayan ve insan haklarıyla tutarsız olarak nitelendirdi article19.org, businessinsider.com. Düzenlemenin bir diğer yönü ise veri koruması: Duygusal veriler biyometrik veya sağlıkla ilgili veri olarak kabul edilebileceğinden, GDPR gibi gizlilik yasalarına tabi olabilir; bu da sıkı onay, amaç sınırlaması ve güvenlik gerektirir. Düzenleyiciler ayrıca, insanların kamusal alanda duygu takibinden vazgeçme hakkına ve otomatik duygu “puanları” ile değerlendirilmeme hakkına sahip olup olmaması gerektiğini tartışıyor. Öte yandan, bazı sektör grupları, duygu yapay zekâsının sorumlu bir şekilde kullanılmasına olanak tanıyacak standartlar için baskı yapıyor (örneğin, IEEE uyarlanabilir duygu-yanıtlı sistemler için etik yönergeleri araştırdı). Açık olan şu ki, teknoloji şu ana kadar kuralların önüne geçti, ancak 2024 bir dönüm noktası. Hükümetler, duygu tanımayı denetim gerektiren ayrı bir yapay zekâ kategorisi olarak tanımaya başlıyor. Önümüzdeki yıllarda, bu araçların nasıl ve nerede kullanılabileceğine dair sınırlar çizmek ve kullananlara hesap verebilirlik getirmek için daha fazla politika bekleyebiliriz. Sonuçta, bir yapay zekâ sistemi birine zarar veren bir duygusal değerlendirme yaparsa (örneğin, birini “yüksek riskli” olarak sebepsizce etiketlerse), kim sorumlu olacak? Bu çetrefilli sorular hâlâ yanıt bekliyor.
Sonuç olarak, etik meseleler basit bir ilkeye dayanıyor: sadece yapabiliyor olmamız, duyguları yapay zekâ ile okumaya çalışmamız gerektiği anlamına gelir mi? Ve eğer öyleyse, hangi koşullarda? Destekçiler, teknoloji için insancıl ve faydalı kullanımlar olduğuna inanıyor (özellikle onay ve özenle), eleştirmenler ise bu yaklaşımın temelde hatalı ve suistimale açık olduğundan endişe ediyor. Bu da bizi son bölümümüze, bu tartışmanın iki tarafındaki uzmanların doğrudan görüşlerine getiriyor.
Uzmanlardan Görüşler
Duygu algılayan yapay zekâ inovasyon ve tartışmanın kesişimindeyken, alandaki önde gelen isimlerin ne söylediğini duymak aydınlatıcı. Uzmanlar ikiye bölünmüş durumda – bazıları dönüştürücü bir potansiyel görüyor, diğerleri ise aşırı dikkatli olunmasını savunuyor. İşte kendi sözleriyle birkaç görüş:
- İyimserler ve Yenilikçiler: Duygusal bilişimin öncülerinin birçoğu, makinelere duygusal zeka kazandırmanın insan-makine etkileşimini derinden iyileştirebileceğini savunuyor. “Diğer insanlarla nasıl etkileşim kurduğunuzu düşünün; yüzlerine bakarsınız, bedenlerine bakarsınız ve etkileşiminizi buna göre değiştirirsiniz,” diye açıklıyor Javier Hernandez, MIT’nin Duygusal Bilişim grubunda araştırmacı. “Bir makine, duygusal durumunuzu bilmiyorsa nasıl etkili bir şekilde iletişim kurabilir?” mitsloan.mit.edu. Bu görüşü savunanlar, duygu yapay zekasının teknolojiyi daha duyarlı, kişiselleştirilmiş ve hatta şefkatli hale getirebileceğine inanıyor. Rana el Kaliouby, Affectiva’nın kurucu ortağı ve “teknolojiyi insanileştirme” savunucusu, duygularımızın karar verme ve bağlantı kurma şeklimizin merkezinde olduğunu belirtiyor. O, yapay zekayı destekleyici bir ortak olarak görüyor: “Paradigma insan ve makine karşıtlığı değil – aslında makinenin insanı güçlendirmesi,” diyor el Kaliouby ve yapay zekanın insan yeteneklerini geliştirmesi, onları değiştirmemesi gerektiğini vurguluyor mitsloan.mit.edu. Ona göre, yapay zekayı doğru şekilde kullanırsak, örneğin sürücülerin güvende kalmasına, doktorların hastaları anlamasına veya müşterilerin kendilerini duyulmuş hissetmesine yardımcı olabilir. El Kaliouby, duygu yapay zekasını iyilik için kullanma konusunda oldukça hevesli – sık sık duygusal analizle otizmli çocuklara yardımcı olma veya ruh sağlığı sorunlarını erken tespit etme gibi projelere dikkat çekiyor. Endişelere rağmen, bu teknolojiye sahip olmamız gerekip gerekmediği sorulduğunda, cevabı kesin bir evet oluyor. “Kesinlikle evet,” diyor 2024’te – çünkü risklerin yanında, “Yapay zeka insanlığın en büyük sorunlarına harika çözümler sunuyor.” asisonline.org Onun ve sektördeki birçok kişinin duruşu, tüm teknolojiyi bir kenara atmamamız gerektiği yönünde. Bunun yerine, sorumlu, insan odaklı duygu yapay zekası geliştirilmesini savunuyorlar – isteğe bağlı tasarımlar, şeffaflık ve çeşitlilik gözetilerek – böylece faydalar (daha güvenli yollar, daha iyi sağlık hizmetleri, daha ilgi çekici eğitim vb.) elde edilebilir. El Kaliouby’nin dediği gibi, “Her sektör … yapay zeka ile dönüşüyor,” ve duygu yapay zekası doğru yapılırsa, “bu dönüşümleri daha empatik hale getirebilir.” asisonline.org Savunucular zorlukların farkında, ancak bunların tamamen teknolojiden vazgeçmek yerine düşünceli tasarım ve politikalarla hafifletilebileceğine inanıyorlar.
- Şüpheciler ve Eleştirmenler: Diğer tarafta ise, bir grup bilim insanı ve etikçi, duygu tanıma teknolojisinin bilimsel temellerinin zayıf olduğunu ve kabul edilemez riskler taşıdığını belirterek yavaşlamamızı ya da tamamen durmamızı istiyor. Profesör Lisa Feldman Barrett’ın, yüz ifadelerinin duygulara güvenilir şekilde eşlenebileceğine dair araştırmaya dayalı şüpheciliğini zaten duymuştuk. Barrett, birçok satıcının iddiasını doğrudan reddediyor: “Çoğu şirket hâlâ bir yüze bakıp birinin kızgın mı yoksa üzgün mü olduğunu anlayabileceğinizi iddia ediyor… Bu açıkça doğru değil.” theguardian.com Onun endişesi, iyi niyetli olsalar da bu sistemlerin yanlış çalışacağı ve insanların yanlış değerlendirileceği yönünde. Bir diğer açık sözlü eleştirmen, Vidushi Marda (dijital haklar grubu Article 19’dan), Çin’deki duygu tanıma uygulamalarını inceledikten sonra, bu alanın “temelde bilim dışı fikirlere dayandığını” ve bu tür sistemlerin ölçekli olarak uygulanmasının “derinden etik dışı” olduğunu belirtti. businessinsider.com Gizlilik savunucuları, örneğin Evan Selinger, duygu tanımayı “duymadığınız en tehlikeli yapay zeka” olarak nitelendiriyor ve bunun yeni ayrımcılık ve manipülasyon biçimlerine yol açabileceğini savunuyor. Ve sadece akademisyenler değil; teknoloji sektöründen içeriden kişiler de şüpheli. TechCrunch ile yaptığı bir röportajda, Andrew Moore (eski Google Cloud AI başkanı), yapay zekanın duyguları anlamasının “güvenilirliğe en az on yıl uzaklıkta” olduğunu ve bundan önceki yanlış kullanımların genel olarak yapay zekaya olan güveni zedeleyebileceğini belirtti. Bu uzmanlar genellikle sıkı sınırlamalar öneriyor. ACLU, yasakları destekleyecek kadar ileri giderek, politika analisti Daniel Kahn Gillmor’un şu sözlerini aktarıyor: “En azından, kimsenin hakları ya da geçim kaynağı bir yapay zekanın duygusal tahminine bağlı olmamalı”. Onların bakış açısından, potansiyel zararlar – haksız tutuklamalar, önyargılı işe alımlar, zihinsel mahremiyet ihlalleri – belirsiz faydalardan daha ağır basıyor. Ayrıca, insanların bile kültürler ve bağlamlar arasında birbirlerinin duygularını doğru okumakta zorlandığını, bu yüzden bir makineden bunu beklemenin saçma olduğunu vurguluyorlar. Özetle, şüpheciler topluma duraklatma tuşuna basmayı, önce sağlam kanıtlar ve etik çerçeveler talep etmeyi ve duyguların son derece insani olduğunu – belki de makinelerin çözümlemesini istemeyeceğimiz bir şey olduğunu hatırlatıyor.
İlginç olan şu ki, her iki taraf da nihayetinde daha iyi bir gelecek istiyor ama yöntem konusunda ayrışıyor. İyimserler potansiyel kazanımlara (yapay zekada empati, iyileşmiş refah) odaklanırken, şüpheciler zararları önlemeye (adaletsizlik, mahremiyet kaybı) odaklanıyor. Arada, teknolojinin vaatlerini kabul eden ama sıkı önlemler talep eden ılımlılar da var. Örneğin, Erik Brynjolfsson, duygu yapay zekasının düşünceli bir şekilde geliştirilmesini savunuyor ve “Unutulmaması gereken önemli şey, düşünceli kullanıldığında nihai faydaların maliyetten daha büyük olabileceği ve olması gerektiğidir” diyor, ancak hemen ardından bunun “herkes için uygun” ve kültürel olarak farkında olması gerektiğini ekliyor mitsloan.mit.edu. Bu orta yol muhtemelen güçlü bir düzenleme, şirketlerden şeffaflık ve bu sistemlerin doğruluğu konusunda sürekli araştırma gerektiriyor.
Sonuç olarak, duyguları algılayan yapay zeka, teknolojinin, psikolojinin ve etiğin büyüleyici bir kesişim noktasında yer alıyor. Destekçileri, bunun cihazlarımızı ve hizmetlerimizi ihtiyaçlarımıza çok daha duyarlı hale getirebileceğine inanıyor – bizi sakinleştiren arabalardan, zorlandığımızı anlayıp yardım teklif eden uygulamalara kadar. Eleştirmenleri ise hiçbir yapay zekanın terapist, yargıç ya da casus rolü oynamaması gerektiği konusunda haklı uyarılar yapıyor – duygularımızı yanlış yönlendirebilecek veya baskılayabilecek şekillerde okuması konusunda. Gerçek, büyük ihtimalle nasıl kullanmayı seçtiğimize bağlı olacak. 2025 itibarıyla, duyguları algılayan yapay zeka burada ve gelişiyor, ancak aynı zamanda yakından inceleniyor. Bazı alanlarda (örneğin ruh sağlığı takibi ve uyarlanabilir eğitim) gerçek faydalarını gördük, aynı zamanda (kötüye kullanımlara karşı yeni yasalar ve yasaklar gibi) ciddi tepkiler de yaşandı.
İleriye dönük olarak, toplum dikkatli bir yol izlemek zorunda kalacak: Her türlü duygu algılayan araçta sağlam bilimsel temeller ve adalet talep etmek, duygusal gözetimden arındırılmış güvenli özel alanlar oluşturmak ve çizginin empatik yardımla zararlı müdahale arasında nerede olması gerektiğine demokratik olarak karar vermek. Kesin olan bir şey var: Bu tartışma daha yeni başlıyor. Yapay zeka, daha iyi bir şekilde yaramaz mı uslu mu olduğunuzu anlamaya başlıyor olabilir – ama bu güçlü yeteneğin insan onuruna saygı gösteren ve hayatlarımızı iyileştiren şekillerde kullanılması, onları azaltmak yerine geliştirmesi için sorumluluk hepimize ait.
Kaynaklar:
- Gaudenz Boesch, “AI Emotion Recognition and Sentiment Analysis,” Viso Blog – viso.ai (10 Ekim 2024) viso.ai
- Noor Al Mazrouei, “Emotion AI: Transforming Human-Machine Interaction,” TRENDS Research (17 Şubat 2025) trendsresearch.org
- Meredith Somers, “Emotion AI, explained,” MIT Sloan (8 Mart 2019) mitsloan.mit.edu
- Julie Bort, “’Emotion AI’ may be the next trend for business software, and that could be problematic,” TechCrunch (1 Eylül 2024) techcrunch.com
- Will Knight, “Experts Say ‘Emotion Recognition’ Lacks Scientific Foundation,” ACLU (18 Temmuz 2019) aclu.org
- Oscar Holland, “%80 öfkeli ve %2 üzgün müsünüz? Neden ‘duygusal yapay zeka’ sorunlarla dolu,” The Guardian (23 Haziran 2024) theguardian.com
- Valeria Vasquez ve diğerleri, “Yapay Zeka Yasası Kapsamında İşyerinde Yapay Zeka Duygu Tanıma Teknolojilerinin Yasaklanması,” Wolters Kluwer – Global Workplace Law (Şubat 2025) legalblogs.wolterskluwer.com
- Cheryl Teh, “‘Yaptığın her sahte gülümseme’ — bir yapay zeka duygu tanıma sistemi, Çinli çalışanların ofiste ne kadar ‘mutlu’ olduğunu değerlendirebiliyor,” Business Insider (16 Haziran 2021) businessinsider.com
- AIMultiple Araştırma Ekibi, “2025’teki En İyi 10+ Duygusal Yapay Zeka Örneği ve Kullanım Durumu,” AIMultiple (güncellendi 2 Haz. 2025) research.aimultiple.com
- Sara Mosqueda, “El Kaliouby: İnsanlar Dünyayı Geliştirmek İçin Yapay Zekadan Yararlanabilir,” Security Management Magazine – GSX Daily (24 Eylül 2024) asisonline.org
- Dartmouth College, “Telefon Uygulaması, Yüz İfadelerinden Depresyonu Tespit Etmek İçin Yapay Zeka Kullanıyor,” Dartmouth News (27 Şubat 2024) home.dartmouth.edu