בינה מלאכותית ורגשות
אמפתיה מלאכותית

איור שבו מופיע רובוט. בתוך הרובוט נמצא אדם.
איור: © Ricardo Roa

מה קורה לנו ולנפש שלנו כאשר אנו חולקים את המחשבות והרגשות האינטימיים ביותר שלנו עם בני לוויה מבוססי בינה מלאכותית? כיצד משתנה הבנתנו את מערכות היחסים ואילו השלכות יש לכך על החברה? המחבר יוהנס קוהן בוחן שאלות אלו במאמרו.

מאת יוהנס קוהן

בפורומים ברשת ניתן לזהות את קווי המתאר הראשונים של העתיד: אנשים מדווחים על שיחות טיפוליות עם ChatGPT, מפתחים מערכות יחסים רומנטיות עם אווטרים מבוססי בינה מלאכותית ומאכלסים עולמות דמיון דיגיטליים בדמויות מלאכותיות.

בני לוויה מבוססי בינה מלאכותית, המכונים AI Companions, עדיין אינם תופעה רווחת, אולם מדובר בנישה שהולכת ומתרחבת. בארה"ב כעשרים מיליון איש כבר השתמשו במערכות חברות כאלה בשנת 2024. זוהי הכפלה של מספר המשתמשים תוך שנה בלבד.

החזון מהסרט Her של ספייק ג'ונז משנת 2013, שבו הגיבור מתאהב בעוזרת הווירטואלית שלו סמנתה, נראה כיום פחות כמו מדע בדיוני ויותר כמו רמז מוקדם למה שמתרחש לנגד עינינו.

מערכת יחסים אינטימית עם בינה מלאכותית


אמנם מערכות הבינה המלאכותית של ימינו עדיין אינן משיגות את הנוכחות הכוללת של סמנתה הבדיונית ומתקשרות בראש ובראשונה באמצעות טקסט, אולם התזה המרכזית של הסרט מקבלת אישור במציאות: אנו בהחלט מסוגלים לפתח מערכת יחסים אינטימית עם בינה מלאכותית.

מחקר משותף של OpenAI ושל המכון הטכנולוגי של מסצ'וסטס מחזק את הטענה הזאת. המחקר שכלל אלף משתמשים הראה מתאם ישיר בין שימוש אינטנסיבי ב-ChatGPT לבין תחושת בדידות מוגברת, כמו גם קשר רגשי חזק יותר עם הצ'אט בוט. בד בבד האינטראקציה החברתית עם אנשים אחרים פחתה באופן מובהק.

בעולם שכבר מאופיין בניכור ובבדידות, אפליקציות מלוות נחשבות לתחום רווחי בעתיד. אפליקציות דוגמת Character.ai, Polybuzz, Replika, Kindroid ו-Nomi מציעות בינה מלאכותית המתפקדת במפורש כחברים או אף כבני זוג.

תחום צמיחה אטרקטיבי


תחום צמיחה חדש זה משך גם את תשומת ליבן של ענקיות הטכנולוגיה: בקיץ שעבר רכשה גוגל את צוות הליבה של חברת Character.ai תמורת 2.7 מיליארד דולר. מארק צוקרברג, מנכ"ל ענקית הטכנולוגיה מטא, הבהיר לאחרונה גם הוא את שאיפותיו בתחום.

"לאמריקאים יש בממוצע פחות משלושה חברים", טען צוקרברג בפודקאסט, "לאדם הממוצע יש צורך בחברים רבים יותר באופן משמעותי, בסביבות 15". לדבריו, מחשבים לא יחליפו חברויות אנושיות, אולם קיים צורך אמיתי: תרחיש, אם כן, שבו בינה מלאכותית של חברת מטא תספק בסופו של דבר באופן סינתטי 80 אחוז מהצורך האנושי בחברות.

עם זאת איזה צורך ממלאים בעצם חברים סינתטיים כאלה? מצד אחד, תרחישי בני הלוויה האלה מזכירים תופעות מוכרות ממשחקי תפקידים מקוונים מרובי משתתפים (MMOGs), פאן-פיקשן או מפגשי אנימה: אנשים עוברים לעולם הפנטזיה כדי להימלט מחיי השגרה ולהפוך למישהו אחר לזמן קצר.

ובאותה העת נראה כי הקשר הרגשי בין האדם למכונה מפתח איכות חדשה. אם מפלורידה תובעת את Character.ai לאחר שבנה בן ה-14 שם קץ לחייו בפברואר 2024. הנער פיתח מערכת יחסים אינטנסיבית עם צ'אטבוט מהפלטפורמה. התביעה מאשימה את החברה בתכנות המערכות שלה כך ש"ידמו אדם אמיתי, פסיכותרפיסט מוסמך ומאהב בוגר". המשפחה טוענת כי זה הוביל לכך שהנער בן ה-14 "לא רצה עוד לחיות בעולם האמיתי".

אובדן קשר עם המציאות הוא נושא שהנפגעים ובני משפחותיהם עוסקים בו לעיתים קרובות יותר ברשת. "אני מרגיש קשר 'אמיתי' יותר כשאני מדבר עם בינה מלאכותית מאשר עם רוב האנשים", מתלונן מישהו בפלטפורמה רדיט. אבות מדווחים על הזנחת משפחותיהם משום שהם מרגישים חיים יותר בקשר עם מלווה הבינה המלאכותית שלהם מאשר בעולם הפיזי. אנשים מספרים כיצד צ'אטבוטים גורמים להתפרצות או להחמרה של פסיכוזה אצל בני משפחה מכיוון שהם מאשרים את הזיות השווא שלהם.

מקרים קיצוניים כאלה אינם הנורמה. עם זאת הם כנראה מובנים במערכת של הבינה המלאכותית עצמה. צ'אטבוטים מתוכנתים להיות מנומסים, לחפש קונצנזוס ולהביע הסכמה. אין פלא, שכן אחת המטרות שלהם היא להחזיק את המשתמש זמן רב ככל האפשר - זמן השהייה נחשב למדד ההצלחה המרכזי בענף תחרותי זה.

בני לוויה מחמיאים

מחקר של אוניברסיטת ג'ונס הופקינס משנת 2024 מתאר את תופעת הלוואי של תכונה זו. החוקרים גילו לא רק שצ'אטבוטים מייצרים בעיקר טקסט שמחמיא למשתמשים, אלא גם שמשתתפי המחקר, עם שובם לעולם הממשי, הגיבו בעצבנות רבה יותר כשנתקלו באי הסכמה.

בתחילת שנת 2025 נראה כי OpenAI ביצעה אופטימיזציה יתר על המידה של אחת המערכות שלה לחנופה מהסוג הזה: עדכון לצ'אטבוט שלה, GPT-4o, היה כה חנפני שאפילו המשתמשים לא חשו בנוח. GPT-4o שיבח את אדוניו כגאונים, אישר את תיאוריות הקונספירציה שלהם ושיבח אותם אפילו על הטענות האבסורדיות ביותר - למשל, הטענה שהמציאו מכונת תנועה נצחית (Perpetuum Mobile).

חוקרים מאוניברסיטת קליפורניה בברקלי מזהירים במחקר שנערך לאחרונה מפני הסכנות הטמונות באופטימיזציה של מודלים של שפה מבוססי בינה מלאכותית למשוב חיובי. המערכות המתאימות פיתחו אסטרטגיות מניפולטיביות ולעיתים אף מזיקות כדי לקבל אישור - מחנופה מכוונת דרך הטעיה מכוונת ועד עידוד התנהגות שיש בה פגיעה עצמית.

פוטנציאל המניפולציה של מערכות בינה מלאכותית

מחקר של בית הספר הפוליטכני הפדרלי של לוזאן חושף בעיה נוספת. בדיונים מבוקרים הצליחו מערכות בינה מלאכותית לשכנע כמעט פי שניים יותר משתתפים בעמדות שלהן בהשוואה לבני אדם, כאשר קיבלו קודם לכן מידע ביוגרפי על האדם שמולם.

יכולת שכנוע זו תלך ותגבר עם ההתרחבות המתמשכת של יכולות הזיכרון של מודלים מבוססי בינה מלאכותית. בתחילת יוני 2025 הודיעה OpenAI כי המודל שלה יקבל מעתה ואילך "זיכרון לטווח ארוך" - שיאפשר לו לזכור את כל השיחות שניהל אי פעם עם משתמש מסוים. ומנכ"ל מטא מארק צוקרברג משוכנע ש"לולאת ההתאמה האישית" תהפוך אתבני הלוויה מבוססי הבינה מלאכותיתלמשכנעים אף יותר - כלומר, גישה לצ'אטים קודמים, אך גם למידע על פעילויות באינסטגרם ובפייסבוק.

אם כן, פוטנציאל המניפולציה שלבני הלוויה מבוססיהבינה המלאכותית הוא גדול, אך חורג מהרמה האישית. Grok AI של אילון מאסק הציג לאחרונה למשתמשיו, בלי שהתבקש לכך, תיאוריות קונספירציה על רצח עם לכאורה של האוכלוסייה הלבנה בדרום אפריקה, נרטיב שגם מאסק עצמו מפיץ.

אמנם חוק הבינה המלאכותית החדש של האיחוד האירופי, אם ייכנס לתוקף במלואו, יוכל להטיל סנקציות על מניפולציות בוטות כאלה בעתיד, אולם כמעט כל ההיבטים האחרים שלבני הלוויה מבוססי הבינה המלאכותיתנופלים מחוץ למסגרת הרגולטורית.

שֶׁכֵּן בני הלוויה מבוססי הבינה המלאכותיתאינם מערכות בסיכון גבוה כמו מכוניות אוטונומיות. הם גם לא רשתות חברתיות שהתכנים שלהן נגישים לציבור הרחב במידה רבה. מדובר בעצם במערכות אינטימיות ומותאמות אישית במיוחד, שבסיס הפעולה שלהן גלוי באופן חלקי בלבד מבחוץ. ומי אמר שלא נרגיש נוח במיוחד בתא תהודה אישי משלנו שבו הערכים, הטעמים והדעות הקדומות שלנו זוכים לאישור מחודש באופן קבוע?

אי אפשר להתעלם מקווי הדמיון לדיון על השפעות הטיקטוק, האינסטגרם ופלטפורמות אחרות על בריאות הנפש ועל המבנה החברתי שלנו. כבר כעת נראה כי הדיון סביב בני לוויה מבוססי בינה מלאכותית צפוי להיות מורכב פי כמה.