בינה מלאכותית שיודעת איך אתה מרגיש: עליית הטכנולוגיה לזיהוי רגשות

אוגוסט 24, 2025
AI That Knows How You Feel: The Rise of Emotion-Detecting Tech
AI That Knows How You Feel

בינה מלאכותית כבר לא עוסקת רק בחישוב מספרים או בזיהוי פנים – היא לומדת לקרוא איך אנחנו מרגישים. מה שנקרא בינה מלאכותית לזיהוי רגשות (המכונה גם בינה מלאכותית רגשית או מחשוב רגשי) עושה שימוש באלגוריתמים לניתוח הבעות פנים, טון דיבור, הודעות טקסט ואפילו אותות גוף כדי להסיק רגשות אנושיים. ההבטחה מפתה: אפליקציות אינטואיטיביות יותר, רובוטים אמפתיים וחוויות מותאמות אישית שמגיבות למצב הרוח שלנו. אך ככל שהטכנולוגיה הזו יוצאת ממעבדות המחקר אל מקומות עבודה, בתי ספר ומרחבים ציבוריים, עולות שאלות גדולות. איך בדיוק פועלות אותן "קוראות מחשבות" מבוססות בינה מלאכותית? היכן נעשה בהן שימוש כיום? ולמה יש מומחים שמתרגשים מהאפשרויות בעוד אחרים מודאגים מהסכנות? בדוח מעמיק זה נחקור כיצד פועלת בינה מלאכותית לזיהוי רגשות, יישומים בעולם האמיתי בתעשיות שונות, ההתפתחויות האחרונות ב-2024–2025, והסוגיות האתיות שהיא מעוררת – תוך ציטוט תובנות מומחים ועובדות עדכניות לאורך הדרך.

מהי בינה מלאכותית לזיהוי רגשות וכיצד היא פועלת?

בינה מלאכותית לזיהוי רגשות מתייחסת לאלגוריתמים שמזהים ומפרשים רגשות אנושיים מתוך מגוון נתונים. למעשה, מדובר בהענקת סוג של אינטליגנציה רגשית למכונות. חוקרים מכנים תחום זה לעיתים מחשוב רגשי. מערכות הבינה המלאכותית מנסות "לקרוא" רגשות דרך ערוצים מרובים:

  • ניתוח פנים: אחת הגישות הנפוצות ביותר היא שימוש בראייה ממוחשבת לניתוח הבעות פנים. מצלמה מצלמת תמונה (או וידאו) של פני אדם, והבינה המלאכותית מזהה תחילה את הפנים ואת הנקודות המרכזיות (עיניים, גבות, פה וכו'). לאחר מכן, באמצעות למידת עומק (לרוב רשתות נוירונים קונבולוציוניות), היא בוחנת תנועות שרירים או "מיקרו-הבעות" ומסווגת את הבעת הפנים לקטגוריית רגש viso.ai. מערכות רבות מאומנות לזהות הבעות בסיסיות כמו שמחה, עצב, כעס, פחד, הפתעה, גועל ונייטרליות botpenguin.com. לדוגמה, פה מחייך ועיניים מצומצמות יסומנו כ"שמח", בעוד גבות מכווצות עשויות להיחשב "כועס" – אם כי, כפי שנראה, זה לא תמיד כל כך פשוט.
  • ניתוח טון דיבור: מעבר למה שאנחנו אומרים, איך שאנחנו אומרים זאת יכול לשדר רגש. אלגוריתמים של זיהוי רגשות בדיבור מאזינים לדפוסי קול – דברים כמו גובה, עוצמה, קצב וטון. מודלים של בינה מלאכותית מנתחים תכונות קוליות אלו (אינטונציה, דגשים, קצב וכו') כדי להסיק אם אדם נשמע נרגש, רגוע, נסער וכן הלאה botpenguin.com. לדוגמה, טון רועד וגבוה עשוי להעיד על פחד או כעס, בעוד טון איטי ושטוח עשוי להצביע על עצב או עייפות. יש מערכות שאף מזהות מילים מסוימות או רמזים מילוליים (כמו "אני בסדר" רועד) שמקושרים למצבים רגשיים.
  • ניתוח סנטימנט של טקסט: רגשות באים לידי ביטוי גם בכתיבה. בינה מלאכותית יכולה לבצע עיבוד שפה טבעית (NLP) על טקסטים – מפוסטים ברשתות החברתיות ועד מיילים או הודעות צ'אט – כדי לזהות סנטימנט. ניתוח סנטימנט מסורתי מסווג טקסט כחיובי, שלילי או נייטרלי. בינה רגשית מתקדמת מזהה רגשות מסוימים מהטקסט על ידי בחינת בחירת מילים, הקשר וסימני פיסוק botpenguin.com. לדוגמה, "אני נרגש בטירוף!" יזוהה כחיובי מאוד (שמח/נלהב), בעוד "אני מרגיש כל כך פגוע ובודד…" עשוי להיות מסומן כעצוב או במצוקה. מודלים גדולים של שפה ומסווגים מותאמים משמשים לניתוח הטון הרגשי שמאחורי המילים שלנו.
  • סיגנלים ביומטריים נוספים: מערכות מתקדמות מסוימות משלבות גם אותות פיזיולוגיים והתנהגותיים. זה יכול לכלול שפת גוף (יציבה, מחוות), מעקב עיניים (לאן אתה מביט וכיצד האישונים שלך מתרחבים), דופק, מוליכות עור או גלי מוח באמצעות מכשירים לבישים. אותות אלה עשויים לרמז על לחץ או התרגשות – למשל, דופק מואץ וכפות ידיים מזיעות עשויים להצביע על חרדה. במחקר מתקדם, בינה רגשית מולטימודלית משלבת נתוני פנים, קול ופיזיולוגיה לתמונה מלאה יותר trendsresearch.org. לדוגמה, בינה מלאכותית לניטור נהגים ברכב עשויה להשתמש במצלמה למעקב אחרי פניך וחיישן בהגה למעקב אחרי הדופק, כדי לאתר סימני עייפות או כעס בכביש.

כל השיטות הללו כוללות למידת מכונה על מאגרי נתונים גדולים של הבעות רגש אנושיות. מודלי הבינה המלאכותית "מאומנים" על דוגמאות – תמונות של פנים עם תיוג הרגש, קטעי אודיו עם תיוג מצב הרוח של הדובר, ועוד. עם הזמן, הבינה לומדת דפוסים שמקשרים קלטים מסוימים (חיוך מסוים, טון דיבור) לרגשות סבירים. זה בעצם זיהוי דפוסים: הבינה המלאכותית לא מרגישה דבר בעצמה, אלא מנחשת באופן מושכל את רגשותינו על פי האותות שאנו משדרים.

חשוב לציין שבינה מלאכותית לזיהוי רגשות כיום מוגבלת בדרך כלל לזיהוי מספר קטגוריות רגשיות רחבות או רמות עוררות. רגשות אנושיים הם מורכבים ותלויי הקשר, מה שהופך זאת למשימה מאתגרת מאוד עבור בינה מלאכותית. עם זאת, הטכנולוגיה משתפרת במהירות. בשילוב ראיית מחשב, ניתוח דיבור ו-NLP, בינה רגשית כיום יכולה להסיק את מצב הרוח של אדם בדיוק בינוני – בתנאים הנכונים. כפי שמסביר דוח אחד, שילוב טכניקות שונות (פנים, קול, טקסט) מאפשר למכונות לפרש רגשות אנושיים "בדיוק רב יותר", מה שהופך את האינטראקציה לטבעית ומגיבה יותר trendsresearch.org. בחלקים הבאים נבחן כיצד יכולות אלו מיושמות בעולם האמיתי, ועד כמה הן התקדמו נכון ל-2024–2025.

יישומים בעולם האמיתי בתעשיות שונות

בינה מלאכותית לזיהוי רגשות יצאה מגבולות המעבדה אל מגוון תעשיות. הנה כמה מהיישומים הבולטים ביותר ומקרי השימוש לפי מגזר:

  • בריאות ורווחה: בינה מלאכותית רגשית נבחנת ככלי לבריאות הנפש וטיפול בחולים. לדוגמה, חוקרים פיתחו אפליקציות לסמארטפון שמנטרות את פני המשתמשים וקולם לאיתור סימני דיכאון או חרדה home.dartmouth.edu. מחקר מ-2024 הציג את MoodCapture, אפליקציה המשתמשת במצלמת הטלפון כדי לזהות סימנים מוקדמים לדיכאון על ידי ניתוח הבעות הפנים של המשתמש בכל פעם שהוא פותח את הטלפון – וזיהתה שינויים במצב הרוח בדיוק של כ-75% בניסויים home.dartmouth.edu. מטפלים בודקים גם בינה מלאכותית שמאזינה במהלך מפגשי ייעוץ כדי להעריך את מצב הרוח של המטופל לפי טון הדיבור, ואולי להתריע אם מישהו נשמע במצוקה גוברת. בבתי חולים, מצלמות לזיהוי רגשות עשויות לנטר רמות כאב או לחץ של מטופלים כאשר האחיות לא נוכחות. ולאנשים עם אוטיזם, עזרי בינה מלאכותית רגשית יכולים לסייע בפירוש הבעות של אחרים – למשל, אפליקציה לבישה או לטאבלט שמציגה לילד אוטיסט תוויות כמו "אמא שמחה" או "אבא נראה כועס", וכך עוזרת לו ללמוד רמזים רגשיים mitsloan.mit.edu.
  • שיווק וחוויית לקוח: חברות משתמשות בבינה רגשית כדי להבין צרכנים ברמה עמוקה יותר. מפרסמים יכולים לבדוק פרסומות או סרטוני מוצר עם קבוצות צופים שהסכימו להיות מצולמים במצלמת רשת; הבינה המלאכותית מנתחת לאחר מכן תגובות פנים פריים אחר פריים כדי לראות אילו רגעים גרמו לאנשים לחייך, לצחוק או להיראות משועממים. למעשה, כ-25% מחברות Fortune 500 השתמשו בבינה רגשית במחקרי פרסום כדי למדוד מעורבות קהל. חברה מובילה בתחום זה, Affectiva (שהוקמה על ידי מדענים מ-MIT), מאפשרת למותגים ללכוד תגובות תת-מודעות, "ויסצרליות", של צופים לפרסומות ולשייך אותן להתנהגות אמיתית כמו האם ישתפו את הפרסומת או ירכשו את המוצר. מעבר לפרסומות, קמעונאים בוחנים מצלמות לזיהוי רגשות בחנויות כדי להעריך שביעות רצון לקוחות (האם האינטראקציה עם השירות השאירה אותך מרוגז או שמח?). באינטרנט, צ'אט-בוטים המצוידים בניתוח סנטימנט מנסים להתאים את תגובותיהם על פי מצב הרוח של הלקוח – למשל, להעביר לנציג אנושי אם המשתמש נשמע כועס. אפילו שלטי חוצות פיזיים ניסו אנליטיקה רגשית: בברזיל, מערכת פרסום אינטראקטיבית ברכבת התחתית השתמשה בצילומי מצלמות כדי לסווג הבעות של נוסעים (שמח, נייטרלי, מופתע, לא מרוצה) ואז שינתה את תוכן הפרסומת בזמן אמת כדי להתאים טוב יותר למצב הרוח של הקהל.
  • חינוך: כיתות לימוד ופלטפורמות למידה מקוונת מתנסות בבינה מלאכותית כדי להעריך רגשות ותשומת לב של תלמידים. המטרה היא ליצור סביבות למידה מגיבות. לדוגמה, חברת שיעורים פרטיים מקוונים בהודו השתמשה בזיהוי רגשות דרך מצלמות הרשת של התלמידים כדי לעקוב אחרי מעורבות ועייפות במהלך שיעורים חייםresearch.aimultiple.comresearch.aimultiple.com. המערכת עקבה אחרי תנועות עיניים ורמזים בפנים כדי להפיק "ציוני תשומת לב", שעזרו למורים לזהות מתי תלמידים מאבדים ריכוז. בכיתות היי-טק מסוימות, נעשה שימוש (במחלוקת) במצלמות כדי לסרוק את פני התלמידים לאיתור סימני בלבול או שעמום, כדי שהמורים יוכלו להתאים את השיעור legalblogs.wolterskluwer.com. יש אפילו דיווחים מסין על בתי ספר שמריצים פיילוט של מצלמות זיהוי פנים שרושמות את מצב הרוח של התלמידים (כמו שמחה או כעס) לאורך כל היום businessinsider.com. בתיאוריה, כלים כאלה יכולים לאפשר התאמה אישית של החינוך – בוט הדרכה עשוי להציע עידוד אם הוא מזהה תסכול – אך הם גם מעלים דיונים על מעקב (עוד על כך בהמשך).
  • רכב: יצרניות רכב משלבות בינה מלאכותית רגשית בכלי רכב כדי לשפר את הבטיחות וחוויית הנהיגה. מערכות ניטור נהגים משתמשות במצלמות על לוח המחוונים כדי לעקוב אחרי הפנים והיציבה שלך, ולבדוק סימני עייפות או הסחת דעת. אם הבינה המלאכותית מזהה עפעפיים נופלים או יציבה רפויה (סימני עייפות), היא יכולה להשמיע התראה. מותגי יוקרה הולכים רחוק יותר ומנסים להעריך את מצב הרוח הרגשי של הנהג: למשל, לזהות אם נהג כועס או עצבני (זעם בכביש) ואז להתערב – אולי להנמיך את המוזיקה או אפילו להגביל את מהירות הרכב mitsloan.mit.edu. Affectiva, שכיום היא חלק מ-Smart Eye, פיתחה פלטפורמת בינה מלאכותית לרכב שמנטרת גם את הנהג וגם את הנוסעים. היא יכולה לזהות אם הנהג צוחק או מתווכח, או אם הנוסעים לחוצים, ולהתאים את הגדרות הרכב בהתאם (דמיינו שהרכב מהדק את מערכות הבטיחות אם הוא מזהה לחץ) mitsloan.mit.edu. ברכבים חצי-אוטונומיים, בינה מלאכותית רגשית עשויה להחליט אם אתה מוסח מדי כדי להשתלט על ההגה. מקרי השימוש בתחום הרכב עוסקים כולם בשימוש בזיהוי רגשות כדי לשפר בטיחות, נוחות והתאמה אישית בכביש.
  • בידור ומשחקים: הבידור הופך לאינטראקטיבי יותר בזכות בינה מלאכותית רגשית. מפתחי משחקי וידאו החלו לבנות משחקים שמגיבים לרגשות השחקן. דוגמה בולטת היא "Nevermind", משחק מתח פסיכולוגי המשתמש במצלמת הרשת של השחקן (או חיישן ביו-פידבק) כדי לזהות לחץ – אם הוא מזהה שאתה נבהל, המשחק נהיה מאתגר יותר ומוסיף הפחדות, ואם תישאר רגוע, המשחק מקל עליך research.aimultiple.com. זה יוצר חוויית אימה דינמית שמסתגלת לרמת הפחד שלך. בקולנוע ובטלוויזיה, אולפנים בודקים מעקב פנים על קהלי מבחן כדי לראות תגובות רגשיות לסצנות (האם תפנית העלילה באמת הפתיעה את הצופים? האם הקומדיה הצחיקה?). יש גם חקירה של תוכן מותאם אישית: דמיין שירות סטרימינג שיכול להשתמש במצלמת הלפטופ שלך כדי לצפות בפניך ולהמליץ על סרטים שמתאימים למצב הרוח הנוכחי שלך (אפילו אתרי נסיעות ניסו להמליץ על יעדים לפי הבעת הפנים של המשתמש research.aimultiple.com). למרות שהמלצות תוכן "מבוססות מצב רוח" עדיין ניסיוניות, המיזוג של בינה מלאכותית עם בידור מבטיח צורות חדשות של מדיה סוחפת ואינטראקטיבית.
  • אכיפת חוק וביטחון: זיהוי רגשות נבחן ליישומי ביטחון, אם כי זהו התחום השנוי ביותר במחלוקת. כמה מחלקות משטרה שקלו בינה מלאכותית שסורקת שידורי מצלמות אבטחה או מצלמות גוף בשידור חי כדי לאתר התנהגות "חשודה" או תוקפנות פוטנציאלית. לדוגמה, אלגוריתמים יכולים לנתח הקלטות קול לאיתור לחץ או כעס כדי לזהות מתי מתקשר ל-911 או אדם במעצר עלול להפוך לתוקפני. קיימים "גלאי תוקפנות" המשווקים לבטיחות הציבור שמאזינים לטונים כועסים או צעקות כדי להתריע מראש לאבטחה על קטטות. בסין, חברה בשם Taigusys פיתחה מערכת בינה מלאכותית לניטור משרדים en masse וטוענת שהיא מזהה איך כל עובד מרגיש – האם הוא שמח, נייטרלי, כועס או לחוץ businessinsider.com. המערכת אף טוענת שהיא יודעת אם אתה מזייף חיוך, ומפיקה דוחות על עובדים שמפגינים יותר מדי רגשות "שליליים", ומציעה שאולי הם זקוקים להתערבות או עוסקים במשהו חשוד businessinsider.com. בבתי כלא, טכנולוגיה דומה נוסתה לניטור מצבם הרגשי של אסירים. בניסויים של אבטחת גבולות במדינות מסוימות נוסו "גלאי שקר" מבוססי בינה מלאכותית שצופים במיקרו-הבעות של נוסעים לאיתור "סימני הונאה". גם בחקירות משטרה מתנסים בניתוח קול שמנסה לזהות אם חשוד לחוץ. עם זאת, שום כוח משטרה אינו מסתמך על כלים אלה כראיה בלעדית – אפילו התומכים טוענים שהם צריכים להיות רק תוספת. כפי שנדון, מומחים מזהירים שיש לנקוט משנה זהירות כאן, כי קריאות שגויות (למשל, בינה מלאכותית שמסמנת בטעות אדם חף מפשע כ"כועס" או "מתחזה") עלולות להוביל להשלכות חמורות בהקשרים של צדק וביטחון.

בכל התעשיות הללו, הרעיון המניע הוא שאם מכונות יוכלו להבין את הרגשות שלנו, הן יוכלו לתקשר איתנו בצורה טבעית ויעילה יותר. מורה בינה מלאכותית שמזהה תסכול יכול לנסח מחדש שיעור. בוט שירות לקוחות ששומע חוסר סבלנות בקולך יכול לקרוא מיד למנהל אנושי. רכב שיודע שאתה עייף יכול לעודד אותך או להשתלט על הנהיגה. מטרתה של בינה מלאכותית רגשית היא למעשה להפוך את הטכנולוגיה לאמפתית יותר, ולהתאים את עצמה לבני אדם במקום להכריח בני אדם להתאים את עצמם למכונות trendsresearch.org. זהו גבול מרתק – והוא מתקדם במהירות, כפי שממחישה הסקירה הבאה עם ההתפתחויות האחרונות.

התפתחויות אחרונות וחדשות (2024–2025)

בינה מלאכותית לזיהוי רגשות עברה פיתוח מואץ בשנתיים האחרונות, מהישגים טכנולוגיים ועד התנגדות רגולטורית. הנה כמה מהמגמות והחדשות הבולטות מהתקופה האחרונה:

  • השקעות מתגברות וסטארטאפים: עולם העסקים שם עין על בינה רגשית מלאכותית. אנליסטים בתעשייה מדווחים כי "בינה רגשית מלאכותית" הופכת לטרנד חם בתוכנה לארגונים, במיוחד כאשר חברות מטמיעות יותר צ'אטבוטים ועוזרים וירטואליים שזקוקים למודעות רגשית techcrunch.com. דוח מחקר עדכני של PitchBook חוזה כי אימוץ בינה רגשית מלאכותית יעלה כדי להפוך אינטראקציות עם בינה מלאכותית לדמויות יותר אנושיות techcrunch.com. הון סיכון זורם לתחום הזה: לדוגמה, חברת בינה מלאכותית מובילה לשיחות, Uniphore, גייסה מעל 600 מיליון דולר (כולל סבב של 400 מיליון דולר ב-2022) כדי לפתח בינה מלאכותית שיכולה לזהות רגשות של לקוחות במהלך שיחות שירות techcrunch.com. סטארטאפים רבים נכנסים לתחום – חברות כמו MorphCast, audEERING, Voicesense, SuperCEED, Siena AI, ואחרות בונות כלים לניתוח רמזים קוליים והבעות פנים בהיקף רחב techcrunch.com. תחזיות שוק משקפות את המומנטום הזה: דוח אחד מעריך כי שוק זיהוי והבנת רגשות העולמי יגדל מכ-3–4 מיליארד דולר ב-2024 ליותר מ-7 מיליארד דולר בתוך חמש שנים technologyslegaledge.com, וניתוח נוסף צופה קפיצה עד 173 מיליארד דולר עד 2031 (אם כי הערכות כאלה משתנות) research.aimultiple.com. ברור כי עסקים רבים רואים פוטנציאל מסחרי בבינה מלאכותית שיכולה להעריך רגשות – בין אם כדי להגדיל מכירות, לשפר שביעות רצון לקוחות או לשפר בטיחות.
  • יכולות טכנולוגיות חדשות: בחזית המחקר, הבינה המלאכותית משתפרת בהבנת רגשות מורכבים. דוגמה בולטת ב-2024 הייתה פרויקט באוניברסיטת חרונינגן שאימן בינה מלאכותית לזהות סרקזם בשפה מדוברת theguardian.com. על ידי הזנת המערכת בדיאלוגים מתוסרטים מסדרות כמו חברים ו-המפץ הגדול, החוקרים לימדו אותה לזהות את דפוסי הקול של דיבור סרקסטי (למשל, טון מוגזם או משיכה בקול). המודל הצליח לזהות סרקזם באודיו בדיוק של כ-75% theguardian.com. זה משמעותי כי סרקזם הוא notoriously קשה לאלגוריתמים (ולפעמים גם לבני אדם!) לזהות, אך הוא מפתח להבנת רגשות אמיתיים בתקשורת. התקדמות בתחומים כאלה מצביעה על כך שבינה מלאכותית רגשית מתקדמת מעבר לזיהוי “שמח מול עצוב” בלבד, לעבר אותות חברתיים מורכבים יותר. באותו אופן, מודלים מולטימודליים משתפרים: אנו רואים בינה מלאכותית שמשלבת טקסט, קול ונתוני פנים לקריאת רגשות מודעת להקשר. חברות כמו Hume AI (שהוקמה על ידי חוקר לשעבר מגוגל) מפתחות ממשקי קול אמפתיים שמגיבים לא רק ל-מה שאתה אומר אלא גם ל-איך שאתה אומר זאת, במטרה לגרום לשיחות עם בינה מלאכותית להרגיש מותאמות רגשית יותר theguardian.com. Hume אף הקימה ועדת אתיקה להכוונת פיתוח “בינה מלאכותית אמפתית” theguardian.com, תוך הכרה בצורך בהתקדמות זהירה. בצד החומרה, טכנולוגיית מצלמות וחיישנים נפוצה וזולה, מה שאומר שקל מתמיד לשלב יכולות זיהוי רגשות בטלפונים, מכוניות ומכשירי בית חכם.
  • אימוץ מיינסטרים ומחלוקות: ככל ש-AI רגשות נכנס לשימוש, הוא גם נתקל בכמה מכשולים. דוגמה בולטת: ענקית שיחות הווידאו Zoom דווחה כי בחנה הוספת תכונות לזיהוי רגשות (כמו ליידע את מארחי הפגישה אם המשתתפים מרוכזים או מוסחים) – אך לאחר תגובת נגד ציבורית בנוגע לפרטיות, Zoom הודיעה באמצע 2022 כי "אין לה תוכניות" ליישם AI כזה למעקב רגשות. באופן דומה, פלטפורמת הגיוס HireVue החלה להשתמש ב-AI לניתוח הבעות פנים של מועמדים בראיונות וידאו, אך עד 2021 הסירה את רכיב ניתוח הפנים בעקבות ביקורת מדעית ודאגה ציבורית. מקרים אלו מכינים את הקרקע ל-2024, כאשר עצם הרעיון של זיהוי רגשות באפליקציות עבודה או צרכנות מעלה גבות (ולא מהסוג ש-AI אמור לעקוב אחריו). בחדשות, אנו ממשיכים לראות חששות משימוש לרעה: למשל, דיווחים כי חברות טכנולוגיה סיניות מפעילות זיהוי רגשות על עובדים עוררו ביקורת בינלאומית businessinsider.com. ובזמן שחלק מהספקים מפרסמים "AI לזיהוי שקרים" לצורכי אבטחה, מומחים הפריכו רבים מהם כ-לא טובים בהרבה מהגרלה אקראית.
  • מהלכים רגולטוריים: אולי ההתפתחות הגדולה ביותר ב-2024 היא ש-ממשלות החלו להתערב ב-AI רגשי. במאי 2024, האיחוד האירופי השלים את חוק ה-AI של האיחוד האירופי, חוק מקיף להסדרת בינה מלאכותית. ראוי לציין שחוק זה אוסר שימוש ב-AI לזיהוי רגשות בזמן אמת בהקשרים מסוימים כ"סיכון בלתי קביל" לזכויות אדם theguardian.com. באופן ספציפי, האיחוד האירופי יאסור מערכות AI שטוענות שהן מסיקות רגשות של אנשים במקומות עבודה, בתי ספר או מוסדות ציבוריים אחרים (למעט חריגים צרים כמו בריאות או בטיחות) legalblogs.wolterskluwer.com. מחוקקי האיחוד האירופי קבעו שזיהוי רגשות בהקשרים כאלה הוא חודרני ולא אמין, ועלול להוביל לתוצאות לא צודקות. (הם כן הבחינו בין AI שמזהה רק הבעה חיצונית של אדם – מה שעשוי להיות מותר – לבין הצהרה על מה שאותו אדם מרגיש בפנים, מה שיהיה אסור theguardian.com.) עמדה משפטית זו, מהראשונות מסוגה, משקפת ספקנות גוברת בקרב קובעי מדיניות לגבי תקפות ואתיות של AI רגשי. בארה"ב אין איסור פדרלי, אך ישנם אזורים השוקלים הגבלות, ו-ACLU וארגוני זכויות אזרח נוספים קראו להפסיק את השימוש בזיהוי רגשות באכיפת חוק ותעסוקה aclu.org, businessinsider.com. העובדה שהרגולטורים שייכו את ה-AI הרגשי לדברים כמו ניקוד חברתי ומניפולציה תת-הכרתית (שגם נאסרו בחוק האירופי) מעבירה מסר ברור: ב-2025 ואילך צפויה פיקוח הדוק יותר וסטנדרטים מחמירים לכל AI שטוען שהוא יודע לקרוא את רגשותינו.

לסיכום, השנה-שנתיים האחרונות היו מכריעות. AI שמזהה רגשות נפוץ יותר מאי פעם, נכנס בשקט לשירות לקוחות, רכבים ואפליקציות – וגם שנוי במחלוקת יותר מאי פעם, כשמומחים ורגולטורים לוחצים על הברקס. ככל שהטכנולוגיה מתבגרת, צפויים ויכוחים רבים יותר על השאלה האם AI יכול באמת להבין רגשות אנושיים, ואם כן – מי רשאי להשתמש בכוח הזה. השאלות הללו מובילות אותנו לנושא הבא: השיקולים האתיים.

שיקולים ואתגרים אתיים

העלייה של AI לזיהוי רגשות עוררה דיונים אתיים סוערים. קריאת רגשות של אדם אינה דומה למדידת חום – היא נוגעת בהיבטים אישיים, לעיתים פרטיים, של חיינו. הנה הדאגות המרכזיות שמומחים ופעילים מעלים:

  • אמינות ותוקף מדעי: סוגיה בסיסית היא האם מערכות אלו אכן פועלות כפי שטוענים. רגשות אנושיים הם מורכבים, תלויי הקשר, ולא תמיד נראים על פני השטח. פסיכולוגים מזהירים כי אין מיפוי פשוט של אחד לאחד בין הבעה פנים לרגש פנימי. אדם עשוי לחייך כשהוא עצוב, או להזעיף פנים כשהוא מרוכז – הבעות משתנות בין אנשים ותרבויות. בשנת 2019, סקירה מקיפה של למעלה מ-1,000 מחקרים בראשות הפסיכולוגית ליסה פלדמן בארט הסיקה כי "לא ניתן להסיק באופן אמין על מצב רגשי של אדם מתנועות פנים" בלבד aclu.org. היא נותנת דוגמה מוחשית: "פנים מזעיפות עשויות או לא עשויות להיות ביטוי לכעס… אנשים מזעיפים פנים כשהם כועסים, אך גם כשהם מבולבלים או אפילו סובלים מגזים!"aclu.org. בקיצור, ההקשר חשוב מאוד ברגש, ובדרך כלל ל-AI אין הקשר. בארט ואחרים טוענים שהאלגוריתמים של היום טובים מאוד בזיהוי תנועות שרירי פנים או אינטונציות קול, אך הם לא יכולים באמת לדעת מה המשמעות הרגשית של אלה aclu.org. כפי שאמרה בישירות למראיין, "אין זיהוי רגשות אוטומטי. האלגוריתמים הטובים ביותר יכולים לזהות הבעת פנים, אך הם לא מצוידים להסיק מה משמעותה" aclu.org. ספקנות זו רווחת בקהילה המדעית. ללא הגדרה ברורה ומוסכמת של רגשות אפילו בקרב פסיכולוגים, בניית AI שיזהה אותם עומדת על קרקע תיאורטית רעועה theguardian.com. במונחים מעשיים, הדבר מעלה את הסכנה של פרשנות שגויה: אם AI מסמן בטעות אדם כ"כועס" או "מטעה" על סמך רמז שגוי, זה עלול להוביל לתוצאות לא הוגנות (להיות מסומן על ידי אבטחה, להידחות מראיון עבודה וכו'). בפשטות, מבקרים טוענים שטכנולוגיית זיהוי רגשות הנוכחית היא לכל היותר קירוב – ולכל הפחות פרנולוגיה דיגיטלית (פסאודו-מדע), במיוחד כאשר היא משמשת לשפוט יחידים article19.org.
  • הטיה והגינות: כמו מערכות בינה מלאכותית רבות, אלגוריתמים לזיהוי רגשות עלולים לשקף ואף להעצים הטיות הקיימות בנתוני האימון שלהם. אחת הדאגות המרכזיות היא הטיה תרבותית וגזעית. אם בינה מלאכותית מאומנת בעיקר על נבדקים מערביים שמפגינים הבעות "קלאסיות", היא עלולה לפרש לא נכון אנשים מרקעים אתניים או תרבותיים שונים. יש עדויות שזה כבר קורה. מחקר מ-2023 מצא שמערכות מסחריות מסוימות של בינה מלאכותית רגשית דרגו בעקביות הבעות פנים של אנשים שחורים כשליליות או כועסות יותר בהשוואה לקבוצות אחרות theguardian.com. במילים אחרות, מבט נייטרלי על פניו של גבר שחור עשוי להתפרש על ידי הבינה המלאכותית כ"כועס" – בעוד שלא תעשה זאת לאדם לבן – הטיה מדאיגה עם השלכות ברורות לדברים כמו בדיקות ביטחוניות או הערכות במקום העבודה theguardian.com. "האלגוריתמים שלך טובים כמו חומרי האימון שלך בלבד," מציינת בארט. "אם חומרי האימון שלך מוטים, אתה מקבע את ההטיה הזו בקוד." theguardian.com. תרבות גם משפיעה על האופן שבו אנו מביעים רגשות: חיוך עשוי להיות בעל משמעויות שונות בהקשרים שונים, ותנועות ידיים או טון דיבור אינם אוניברסליים. אריק ברינולפסון מ-MIT מזהיר שטכנולוגיית זיהוי רגשות חייבת להיות רגישה לגיוון: "זיהוי רגשות בפנים של אפרו-אמריקאי יכול להיות קשה למכונה שאומנה על פנים קווקזיות. ותנועות ידיים או אינטונציות קוליות בתרבות אחת עשויות להיות בעלות משמעות שונה מאוד בתרבות אחרת" mitsloan.mit.edu. אם ניואנסים אלה לא יטופלו, הטכנולוגיה עלולה לפרש באופן שגוי או להפלות קבוצות מסוימות – למעשה לקודד דעות קדומות במסווה של "קריאת רגשות". הטיה אינה נוגעת רק לדמוגרפיה; קיימת גם הטיה הקשרית (למשל, בינה מלאכותית בסביבה רועשת עלולה לפרש קולות רמים ככעס כאשר בפועל פשוט רועש). הבטחת הגינות בבינה מלאכותית רגשית היא אתגר עצום, ועד כה מערכות רבות לא הוכיחו שהן פועלות באותה מידה עבור כל האנשים.
  • מעקב ופרטיות: בינה מלאכותית רגשית כרוכה לעיתים קרובות בניטור מתמיד של הבעות פנים, קולות או אותות פיזיולוגיים של אנשים – מה שמעלה דגלים אדומים ברורים בנוגע לפרטיות. החשש הוא שזה עלול לאפשר רמת מעקב פולשנית חדשה, שבה הרגשות הפנימיים שלנו הופכים לנקודות נתונים שניתן לעקוב אחריהן. במקומות עבודה, למשל, עובדים עלולים להרגיש שהם תחת מיקרוסקופ רגשי, נשפטים לא רק על ביצועים אלא גם על פי אם הם מחייכים מספיק או נשמעים "נלהבים" במידה הנכונה. זה לא מדע בדיוני; זה כבר קורה במקומות מסוימים. מערכת "חייך כדי לקבל ציון" הסינית שהוזכרה קודם היא דוגמה מובהקת – עובדים חוששים להזעיף פנים או להיראות עייפים כי בינה מלאכותית צופה בהם ותדווח על "גישה שלילית" למנהלים businessinsider.com. פרקטיקות כאלה יוצרות סביבה מדכאת ושוחקות אוטונומיה אישית. גם מחוץ למקום העבודה, דמיינו מצלמות ציבוריות שלא רק מזהות את פניכם אלא גם מתייגות אתכם כ"עצבניים" או "נסערים" כשאתם עוברים לידן. ניתן לעשות שימוש לרעה בנתונים כאלה לצורך פרופיילינג. בניגוד לקריאת תרמוסטט, קריאת רגשות יכולה להיות מניפולטיבית מאוד – אנשים לעיתים קרובות מנסים להסתיר את רגשותיהם האמיתיים בציבור מסיבות טובות (פרטיות, נימוס), והעובדה שבינה מלאכותית מפענחת זאת מרגישה אורווליאנית. פעילי פרטיות מציינים שאנשים לא נתנו הסכמה לכך שרגשותיהם ייבחנו על ידי מצלמות בקניון או מצלמות אבטחה משטרתיות. ובכל זאת, תוכנות לזיהוי רגשות מתווספות למערכות אבטחה מסוימות ללא ידיעת הציבור. יש גם את סוגיית אבטחת המידע: נתוני רגשות (סרטוני פנים, הקלטות קול) הם מידע ביומטרי רגיש. אם הוא נאסף ומאוחסן, מי מגן עליו ולכמה זמן? פריצה או דליפה של נתוני רגשות (למשל, הקלטות של מפגשי טיפול, או צילומי מצלמות עם תיוג מצב רוח של מישהו) עלולה להיות מזיקה מאוד. בקיצור, הפיכת חיינו הרגשיים לזרמי נתונים מהווה "צורה חדשה ועוצמתית של מעקב", כפי שנכתב בניתוח של הגרדיאן theguardian.com. דאגה זו מובילה לקריאות להגבלות מחמירות על היכן מותר לבצע ניטור כזה.
  • הסכמה ואוטונומיה: קשור קשר הדוק לפרטיות הוא נושא ההסכמה. האם אנשים צריכים לבחור באופן אקטיבי לאפשר לבינה מלאכותית לנתח את רגשותיהם? רבים טוענים שכן – ניתוח רגשות הוא אישי כל כך שהוא דורש רשות מפורשת. יש חברות שאכן פועלות לפי מודלים של הסכמה אקטיבית (opt-in). לדוגמה, המדיניות של Affectiva בבדיקות פרסומות היא להקליט ולנתח רק צופים שהסכימו והיו מודעים לכך, והם אוסרים שימוש בטכנולוגיה למעקב סמוי או לזיהוי אנשים mitsloan.mit.edu. עם זאת, לא כל הספקים כה מחמירים, ובפועל ייתכן שעובדים או תלמידים לא ירגישו שהם יכולים לסרב אם מעסיק או מוסד לימודי מחייבים תוכנית לניטור רגשות (דמיינו שמבקשים מכם לענוד צמיד חכם שמזהה רגשות בעבודה). זה מעלה חששות של כפייה. האם בעתיד עובדים יחויבו להציג רגשות מסוימים (למשל, תמיד להישמע "שמחים" בשיחות) כי הבינה המלאכותית עוקבת? זה כבר נוגע בשאלות של כבוד האדם וחירות להרגיש מבלי להיות מנותח. מבחינה אתית, רבים טוענים שיש לשמור על סוכנות (agency) על נתוני הרגש האישיים. צריך להיות לך הזכות לשמור את רגשותיך לעצמך, או לפחות לשלוט מי/מה יוכל לזהות אותם. ללא הסכמה ברורה, זיהוי רגשות הופך לפלישה לא רצויה לפרטיות הנפשית שלנו – מה שחוקרים מסוימים מכנים "ריבונות מנטלית". מעודד לראות שהחוק החדש של האיחוד האירופי אוסר במפורש על בינה מלאכותית רגשית במקומות עבודה ובבתי ספר ללא קשר להסכמה (בגלל חוסר האיזון בכוח, הסכמה אמיתית היא מפוקפקת) williamfry.com, legalblogs.wolterskluwer.com. זה מרמז על נטייה להגנה על אנשים מלחץ להיחשף רגשית. ככל שהטכנולוגיה הזו מתפשטת, עמידה על הסכמה – ומתן אפשרות לכיבוי – עשויים להיות קריטיים לשמירה על אוטונומיה אישית.
  • מניפולציה ושימוש לרעה: ממד אתי נוסף הוא כיצד תובנות מ-AI רגשי עשויות לשמש להשפעה או ניצול של אנשים. רגשות מניעים רבות מההחלטות שלנו, ואם חברות או שחקנים פוליטיים יכולים לזהות את תחושותינו, ייתכן שהם יתאימו מסרים כדי ללחוץ לנו על הכפתורים. ראינו גרסה פשוטה של זה בפרשת קיימברידג' אנליטיקה, שבה נעשה שימוש בנתוני פייסבוק כדי ליצור פרופיל פסיכולוגי לבוחרים ולמקד אליהם פרסומות שמטרתן לעורר תגובות רגשיות. AI רגשי עשוי להעצים טקטיקות כאלה – ולאפשר למעשה "מניפולציה רגשית המונית". כפי שמזהירה רנדי ויליאמס מ-Algorithmic Justice League, "כאשר יש לנו בינה מלאכותית שמתחברת לחלקים האנושיים ביותר שלנו, קיים סיכון גבוה שאנשים ינוצלו לרווח מסחרי או פוליטי." theguardian.com. לדוגמה, AI שיווקי עשוי להבחין שאתה מרגיש קצת מדוכדך בערב מסוים (שזוהה דרך מכשירי הבית החכם שלך), ואפליקציה תוכל מיד לדחוף פרסומת לאוכל מנחם או קניות כפיצוי בדיוק ברגע הפגיע הזה. או שממשלה סמכותנית תשתמש בזיהוי רגשות בנאומים בטלוויזיה: אם האוכלוסייה לא נראית נלהבת מספיק, אולי הגיע הזמן להגביר את התעמולה או לחקור מתנגדים. תרחישים אלה נשמעים דיסטופיים, אך אלה סוגי מקרי השימוש לרעה שמומחים רוצים למנוע כבר עכשיו, לפני שיתרחשו. אפילו בצורות מתונות יותר, דחיפה רגשית מעלה שאלות אתיות – האם זה בסדר שמשחק וידאו ינסה בכוונה להפחיד אותך יותר כאשר הוא יודע שאתה מפחד, כמו בדוגמה של משחק אימה? יש שיאמרו שזה בסדר לצורכי בידור; אחרים חוששים מההשפעה הפסיכולוגית. השורה התחתונה היא ש-AI רגשי מספק מנוף חדש להשפעה על התנהגות אנושית, ובלי רגולציה או מסגרות אתיות, המנוף הזה עלול להיגרר לכיוונים אפלים (למשל, "מניפולציה רגשית" מופיעה במפורש כשימוש אסור בקווים המנחים האתיים של Hume AI theguardian.com). שקיפות היא המפתח: אם נעשה שימוש בנתונים רגשיים כדי להשפיע על תוצאות (כמו AI לגיוס שמסרב לקבל אותך כי הוא חושב שלא הפגנת "תשוקה" בראיון), על האדם לדעת ולהיות לו אפשרות לערער על כך.
  • רגולציה ואחריותיות: לאור כל הדאגות הללו, גוברים הקולות הקוראים להסדיר את הבינה המלאכותית המזהה רגשות. האיסור של האיחוד האירופי בתחומים מסוימים הוא גישה אחת – למעשה קובעים ששימושים מסוימים אסורים. במקומות אחרים, מומחים הציעו לדרוש אימות וביקורת קפדניים לכל מערכת בינה מלאכותית רגשית שמופעלת, כדי להוכיח שהן מדויקות וחסרות הטיה (רף גבוה שרבות לא יעמדו בו). ארגונים כמו ACLU ו-Article 19 תמכו בהטלת מורטוריום מוחלט על זיהוי רגשות בתחומים רגישים, וכינו זאת לא מדעי ואינו עולה בקנה אחד עם זכויות אדם article19.org, businessinsider.com. היבט נוסף של רגולציה הוא הגנת מידע: מאחר שנתוני רגש עשויים להיחשב כנתונים ביומטריים או בריאותיים, ייתכן שיחולו עליהם חוקים כמו GDPR, שדורשים הסכמה מחמירה, הגבלת מטרה ואבטחה. רגולטורים גם דנים בשאלה האם לאנשים צריכה להיות זכות להסיר עצמם ממעקב רגשי במרחב הציבורי וזכות שלא להיות מוערכים על ידי "ציוני" רגש אוטומטיים. מנגד, קבוצות תעשייה מסוימות דוחפות לסטנדרטים שיאפשרו בינה מלאכותית רגשית באופן אחראי (למשל, IEEE בחן קווים מנחים אתיים למערכות אדפטיביות המגיבות לרגש). מה שברור הוא שהטכנולוגיה הקדימה את החוקים עד כה, אך 2024 מסמנת נקודת מפנה. ממשלות מכירות בזיהוי רגשות כקטגוריה נפרדת של בינה מלאכותית שדורשת פיקוח. בשנים הקרובות, צפויות עוד מדיניות שינסו לשרטט גבולות לגבי איך והיכן ניתן להשתמש בכלים הללו – ולחייב אחריותיות ממי שמשתמש בהם. בסופו של דבר, אם מערכת בינה מלאכותית מבצעת הערכה רגשית שפוגעת במישהו (למשל, מסמנת אותו "בסיכון גבוה" ללא סיבה), מי אחראי? שאלות סבוכות אלו עדיין דורשות תשובות.

בסופו של דבר, האתיקה מתמצה בעיקרון פשוט: רק כי אנחנו יכולים לנסות לקרוא רגשות עם בינה מלאכותית, האם עלינו לעשות זאת? ואם כן, באילו תנאים? תומכים מאמינים שיש שימושים אנושיים ומועילים לטכנולוגיה (במיוחד בהסכמה ובזהירות), בעוד שמבקרים חוששים שהרעיון עצמו פגום וחשוף לניצול לרעה. זה מוביל אותנו לסעיף האחרון, לשמוע ישירות ממומחים משני צידי הוויכוח.

נקודות מבט של מומחים

עם בינה מלאכותית לזיהוי רגשות בצומת של חדשנות ומחלוקת, מעניין לשמוע מה יש לקולות המובילים בתחום לומר. המומחים חלוקים בדעותיהם – יש הרואים פוטנציאל מהפכני, אחרים קוראים לזהירות קיצונית. הנה כמה נקודות מבט במילותיהם:

  • אופטימיסטים ומחדשים: חלוצים רבים בתחום המחשוב הרגשי טוענים כי הענקת אינטליגנציה רגשית למכונות יכולה לשפר באופן עמוק את האינטראקציה בין אדם למכונה. "חשוב על הדרך שבה אתה מתקשר עם בני אדם אחרים; אתה מסתכל על פניהם, אתה מסתכל על גופם, ואתה משנה את האינטראקציה בהתאם," מסביר חאבייר הרננדז, חוקר בקבוצת המחשוב הרגשי של MIT. "איך מכונה יכולה לתקשר ביעילות אם היא לא יודעת מהו מצבך הרגשי?" mitsloan.mit.edu. מחנה זה מאמין שבינה רגשית מלאכותית יכולה להפוך את הטכנולוגיה ליותר מגיבה, מותאמת אישית ואפילו רחומה. ראנה אל-קליובי, שותפה-מייסדת של Affectiva ומובילה את רעיון "האנשת הטכנולוגיה", מצביעה על כך שהרגשות שלנו הם בלב קבלת ההחלטות והקשרים שלנו. היא רואה בבינה מלאכותית שותפה תומכת: "הפרדיגמה היא לא אדם מול מכונה – אלא מכונה שמעצימה את האדם," אומרת אל-קליובי, ומדגישה שבינה מלאכותית צריכה לשפר את היכולות האנושיות, לא להחליפן mitsloan.mit.edu. לדעתה, אם ניישם את הבינה המלאכותית בצורה הנכונה, היא תוכל, למשל, לעזור לנהגים להישאר בטוחים, לעזור לרופאים להבין מטופלים, או לעזור ללקוחות להרגיש שמקשיבים להם. אל-קליובי נלהבת מהשימוש בבינה רגשית לטובה – היא מרבה לציין פרויקטים כמו ניתוח רגשי לסיוע לילדים עם אוטיזם או לאיתור מוקדם של בעיות נפשיות. ולמרות החששות, כאשר נשאלה האם בכלל עלינו לפתח את הטכנולוגיה הזו, תשובתה היא כן נחרץ. "בהחלט כן," אמרה ב-2024 – כי לצד הסיכונים, "הבינה המלאכותית מציעה פתרונות מדהימים לאתגרים הגדולים של האנושות." asisonline.org עמדתה, ועמדת רבים בתעשייה, היא שאין לזרוק את התינוק עם המים. במקום זאת, הם קוראים לפיתוח בינה רגשית מלאכותית אחראית וממוקדת-אדם – עם עיצוב שמבוסס על הסכמה, שקיפות וגיוון – כדי שהיתרונות (כבישים בטוחים יותר, בריאות טובה יותר, חינוך מרתק יותר וכו') יתממשו. כפי שמסבירה אל-קליובי, "כל תעשייה עוברת טרנספורמציה … עם בינה מלאכותית," ובינה רגשית, אם תיעשה נכון, "יכולה להפוך את הטרנספורמציות הללו לאמפתיות יותר." asisonline.org התומכים מכירים באתגרים אך סבורים שניתן להתמודד איתם באמצעות עיצוב ומדיניות מחושבים, ולא על ידי נטישת הטכנולוגיה לחלוטין.
  • ספקנים ומבקרים: מהצד השני, מקהלה של מדענים ואתיקאים קוראת לנו להאט או אפילו לעצור את טכנולוגיית זיהוי הרגשות, ומזהירה כי היא נשענת על מדע רעוע ונושאת סיכונים בלתי מתקבלים על הדעת. כבר שמענו את הספקנות המחקרית של פרופסור ליסה פלדמן בארט, שטוענת כי לא ניתן למפות הבעות פנים לרגשות באופן אמין. בארט דוחה לחלוטין את טענות הספקים: "רוב החברות עדיין טוענות שאפשר להסתכל על פנים ולדעת אם מישהו כועס או עצוב… זה בבירור לא המצב." theguardian.com החשש שלה הוא שמערכות אלו, גם אם כוונתן טובה, יטעו – ואנשים יישפטו לא נכון. מבקרת בולטת נוספת, וידושי מרדה מארגון Article 19 (קבוצת זכויות דיגיטליות), שחקרה פריסות של זיהוי רגשות בסין, טענה שהתחום "מבוסס באופן יסודי על רעיונות לא מדעיים" ושפריסת מערכות כאלה בהיקף רחב היא "בלתי אתית בעליל." businessinsider.com תומכי פרטיות כמו אבן סלינגר כינו את זיהוי הרגשות "הבינה המלאכותית המסוכנת ביותר שלא שמעתם עליה", בטענה שהיא עלולה להוביל לצורות חדשות של אפליה ומניפולציה. ולא רק אקדמאים: גם אנשי טכנולוגיה מבפנים מטילים ספק. בראיון ל-TechCrunch, אנדרו מור, לשעבר ראש תחום AI ב-Google Cloud, הזהיר כי הבינה המלאכותית שמבינה רגשות "לפחות עשור מהימנות רחוק" וששימוש לרעה לפני כן עלול לפגוע באמון הכולל ב-AI. מומחים אלו ממליצים לעיתים קרובות על מגבלות מחמירות. ה-ACLU אף תמך באיסורים, כאשר האנליסט המדיני דניאל קהן גילמור כתב, "לפחות, אסור שזכויותיו או פרנסתו של אדם יהיו תלויות בניחוש רגשי של AI". מנקודת מבטם, הנזקים הפוטנציאליים – מעצרים שגויים, גיוס מוטה, פגיעה בפרטיות הנפשית – עולים על התועלת הלא ודאית. הם גם מדגישים שגם בני אדם מתקשים לקרוא רגשות זה של זה נכון בין תרבויות והקשרים, כך שציפייה שמכונה תעשה זאת היא שטות. למעשה, הספקנים קוראים לחברה להקפיא את התהליך, לדרוש ראיות מוצקות ומסגרות אתיות תחילה, ולזכור שרגשות הם אנושיים במהותם – ואולי לא משהו שאנחנו רוצים שמכונות ינתחו.

מעניין ששני המחנות שואפים בסופו של דבר לעתיד טוב יותר, אך נבדלים בשיטה. האופטימיסטים מתמקדים ברווחים הפוטנציאליים (אמפתיה ב-AI, שיפור רווחה), בעוד הספקנים מתמקדים במניעת נזקים (עוול, אובדן פרטיות). יש גם מתונים באמצע, שמכירים בהבטחת הטכנולוגיה אך מתעקשים על אמצעי הגנה קפדניים. לדוגמה, אריק ברינולפסון תומך בפיתוח בינה רגשית בצורה מחושבת, ואומר "הדבר החשוב לזכור הוא שכאשר משתמשים בזה בצורה מחושבת, התועלת הסופית יכולה וצריכה להיות גדולה מהעלות", אך הוא מיד מוסיף שזה חייב להיות "מתאים לכל האנשים" ורגיש תרבותית mitsloan.mit.edu. קרוב לוודאי שהדרך האמצעית כוללת רגולציה חזקה, שקיפות מצד החברות, והמשך מחקר על דיוק המערכות הללו.

לסיכום, בינה מלאכותית שמזהה רגשות יושבת בצומת מרתק של טכנולוגיה, פסיכולוגיה ואתיקה. תומכיה מאמינים שהיא יכולה להפוך את המכשירים והשירותים שלנו למותאמים הרבה יותר לצרכינו – ממכוניות שמרגיעות אותנו ועד אפליקציות שיודעות מתי אנחנו מתקשים ומציעות עזרה. מבקריה מעלים חששות מוצדקים שאסור לשום בינה מלאכותית לשמש כמטפלת, שופטת או מרגלת – לקרוא את רגשותינו בדרכים שעלולות להטעות או לדכא. האמת כנראה תלויה באופן שבו נבחר להשתמש בה. נכון ל-2025, בינה מלאכותית שמזהה רגשות כבר כאן ומתקדמת, אך גם נמצאת תחת פיקוח הדוק. ראינו יתרונות ממשיים בנישות מסוימות (כמו ניטור בריאות הנפש וחינוך אדפטיבי), וגם התנגדות ממשית (חוקים ואיסורים חדשים בתגובה לשימוש לרעה).

בהמשך הדרך, החברה תצטרך לנווט בזהירות: לדרוש ביסוס מדעי מוצק והגינות בכלי זיהוי רגשות, להבטיח מרחבים פרטיים בטוחים ללא פיקוח רגשי, ולהחליט באופן דמוקרטי היכן עובר הקו בין אמפתיה מועילה לפלישה מזיקה. דבר אחד בטוח: הדיון הזה רק מתחיל. ייתכן שבינה מלאכותית משתפרת בזיהוי אם הייתם שובבים או טובים – אבל זה תלוי בכולנו להבטיח שהיכולת החזקה הזו תשמש בדרכים שמכבדות את כבוד האדם ומשפרות את חיינו, ולא פוגעות בהם.

מקורות:

  • Gaudenz Boesch, “AI Emotion Recognition and Sentiment Analysis,” Viso Blogviso.ai (10 באוקטובר 2024) viso.ai
  • Noor Al Mazrouei, “Emotion AI: Transforming Human-Machine Interaction,” TRENDS Research (17 בפברואר 2025) trendsresearch.org
  • Meredith Somers, “Emotion AI, explained,” MIT Sloan (8 במרץ 2019) mitsloan.mit.edu
  • Julie Bort, “’Emotion AI’ may be the next trend for business software, and that could be problematic,” TechCrunch (1 בספטמבר 2024) techcrunch.com
  • Will Knight, “Experts Say ‘Emotion Recognition’ Lacks Scientific Foundation,” ACLU (18 ביולי 2019) aclu.org
  • אוסקר הולנד, "האם אתה 80% כועס ו-2% עצוב? מדוע 'בינה רגשית מלאכותית' רצופה בבעיות," The Guardian (23 ביוני 2024) theguardian.comואלריה ואסקז ואחרים, "האיסור על טכנולוגיות זיהוי רגשות בינה מלאכותית במקום העבודה לפי חוק הבינה המלאכותית," Wolters Kluwer – Global Workplace Law (פברואר 2025) legalblogs.wolterskluwer.comשריל תה, "'כל חיוך מזויף' — מערכת זיהוי רגשות בינה מלאכותית יכולה להעריך עד כמה 'מאושרים' העובדים בסין במשרד," Business Insider (16 ביוני 2021) businessinsider.comצוות המחקר של AIMultiple, "10+ דוגמאות ושימושים מובילים לבינה רגשית מלאכותית ב-2025," AIMultiple (עודכן 2 ביוני 2025) research.aimultiple.comשרה מוסקדה, "אל קליאובי: בני אדם יכולים לרתום בינה מלאכותית לשיפור העולם," Security Management Magazine – GSX Daily (24 בספטמבר 2024) asisonline.orgקולג' דארטמות', "אפליקציית טלפון משתמשת בבינה מלאכותית לזיהוי דיכאון לפי הבעות פנים," Dartmouth News (27 בפברואר 2024) home.dartmouth.edu
AI Is Dangerous, but Not for the Reasons You Think | Sasha Luccioni | TED

Latest Posts

Don't Miss