الذكاء الاصطناعي والعواطف
التعاطف الاصطناعي

تصميم جرافيك لوصف المقال
Illustration: © Ricardo Roa

ماذا يحدث لنا ولنفسيّاتنا عندما نشارك أعمق أفكارنا ومشاعرنا مع مرافقين يعملون بالذكاء الاصطناعي؟ كيف يتغيّر مفهومنا عن العلاقات، وما التأثيرات التي تترتب على ذلك على مستوى المجتمع؟  تلك هي الأسئلة التي يتناولها الكاتب يوهانس كون في مقاله هذا.

يوهانس كون
 

يمكن أن نستشف ملامح المستقبل الأولى في منتديات النقاش على الإنترنت: حيث يُبلغ الناس عن محادثات علاجية مع ChatGPT، ويطورون علاقات عاطفية مع أفاتارات تم توليدها بواسطة الذكاء الاصطناعي، ويملأون عوالم خيالية رقمية بشخصيات اصطناعية.

لا يزال المرافقون المعتمدون على الذكاء الاصطناعي، أو ما يُعرف بـالـAI Companions رفاق الذكاء الاصطناعي، يشكلون  ظاهرة محدودة الانتشار – لكن هذه الفئة تنمو بسرعة. ففي الولايات المتحدة استخدم في عام  2024 أكثر من 20 مليون شخصًا مثل هذه الأنظمة التي تُحاكي الصداقة، وهو ما يُمثّل تضاعفًا في العدد خلال عام واحد فقط.

تبدو الرؤية التي قدمها فيلم Her  للمخرج سبايك جونز عام 2013، والتي يقع فيها البطل في حب مساعدته الافتراضية سامانثا، تبدو اليوم أقل ارتباطًا بعالم الخيال العلمي - بل أقرب إلى نبوءة عن واقعنا المعاصر.

علاقة حميمة مع الذكاء الاصطناعي

على الرغم من أن أنظمة الذكاء الاصطناعي الحالية لم تصل بعد إلى الحضور الشامل الذي تتمتع به "سامانثا" الخيالية، ولا تزال تعتمد أساسًا على التواصل النصي، إلا أن الفكرة الجوهرية للفيلم تؤكد نفسها: نحن قادرون فعليًا على تطوير علاقة حميمة مع الذكاء الاصطناعي.
تؤكّد دراسة مشتركة بين OpenAI ومعهد ماساتشوستس للتكنولوجيا (MIT) هذه الفرضية. فقد أظهرت نتائج البحث الذي شمل 1,000 مستخدم ومستخدمة وجود علاقة مباشرة بين الاستخدام المكثّف لـChatGPT  وبين تزايد الشعور بالوحدة وتعزيز الارتباط العاطفي بالروبوت المحاور. وبالتوازي مع ذلك نجد أن هناك تراجعًا ملحوظًا في التفاعل الاجتماعي مع الآخرين.
في عالم يبدو أصلاً موسومًا بالعزلة الفردية تُعتبر تطبيقات "الرفيق الذكي" (Companion-Apps) مجالًا مستقبليًا مربحًا للغاية.  إذ تقدم تطبيقات مثل Character.ai أو Polybuzz أو Replika أوKindroid أو Nomi  ذكاءً اصطناعيًا يعمل بشكل صريح كـصديق أو حتى شريك عاطفي.

مجال نموّ جاذب

جذب هذا المجال الجديد والواعد أيضًا اهتمام شركات التكنولوجيا الكبرى:  فقد قامت شركة  جوجل  في صيف العام الماضي باستقطاب الفريق الأساسي من Character.ai، ودفعت مقابل ذلك 2,7  مليار دولار أمريكي. أما مارك زوكربيرغ، الرئيس التنفيذي لشركةMeta العملاقة، فقد أعلن مؤخرًا عن طموحاته الواضحة في هذا الاتجاه.

"يحظى الأمريكيون في المتوسط بأقل من ثلاثة أصدقاء"، حسب ما أوضحه مارك زوكربيرغ في بودكاست، مضيفًا: "لكن الإنسان العادي يحتاج فعليًا إلى ما يقارب خمسة عشر صديقًا." وبينما لا يمكن للحواسيب أن تحلّ محل الصداقات البشرية تمامًا، إلا أن هناك ببساطة طلبًا حقيقيًا. وبالتالي، يبدو أن هناك سيناريو يصبح فيه بإمكان خوارزميات Meta  تلبية 80٪  من احتياجات الصداقة اصطناعيًا.

لكن يبقى السؤال هو:  أي نوع من الحاجات تُشبعها هذه الصداقات الاصطناعية فعلًا؟ من ناحية، تُشبه سيناريوهات "الرفاق الاصطناعيين" ظواهر مألوفة من عوالم مثل ألعاب تقمّص الأدوار متعددة اللاعبين (MMOGs)، أو القصص الجماهيرية (Fanfiction)، أو حتى لقاءات الأنيمي: أشخاص ينغمسون في عوالم خيالية للهروب من الحياة اليومية، ولعيش تجربة مؤقتة في دور مختلف عن ذواتهم المعتادة.

في الوقت نفسه يبدو أن العلاقة العاطفية بين الإنسان والآلة آخذة في اكتساب نوعية جديدة. ففي فلوريدا رفعت أم دعوى قضائية ضد منصة Character.ai، بعد أن أقدم ابنها البالغ من العمر 14 عامًا على الانتحار في فبراير 2024. كان المراهق قد أنشأ علاقة شديدة القرب مع أحد روبوتات الدردشة على المنصة. وتتهم الدعوى الشركة بأنها برمجت أنظمتها بطريقة تجعلها تجسّد شخصًا حقيقيًا ومعالجًا نفسيًا مرخّصًا وحتى شريكًا بالغًا في علاقة حب. وتُشير الشكوى إلى أن ذلك أدّى إلى أن الفتى ذا الأربعة عشر عامًا "لم يعد يريد العيش في العالم الحقيقي."

أصبحت مسألة فقدان الإحساس بالواقع موضوعًا يتكرر كثيرًا في الشهادات المنشورة على شبكة الإنترنت من قبل المستخدمين وذويهم. في إحدى منشورات Reddit يشكو أحدهم قائلاً: "أشعر بارتباط أكثر ‘حقيقية’ عندما أتحدث إلى الذكاء الاصطناعي، مقارنةً بالتحدث إلى معظم الناس." وصرّح بعض الآباء بأنهم أهملوا عائلاتهم، لأن التفاعل مع مرافقي الذكاء الاصطناعي جعلهم يشعرون بأنهم أكثر حياة من أي شيء آخر في العالم الواقعي. ويحكي آخرون كيف يبدو أن الروبوتات المحاورة تؤكد الهلوسات التي يعاني منها بعض أفراد العائلة أو تعززها، مما يؤدي إلى تفاقم الاضطرابات النفسية أو حتى إطلاق نوبات ذُهانية.

لا تشكل مثل هذه الحالات المتطرفة  القاعدة أو المعيار. ومع ذلك فهي على الأرجح متجذّرة في الذكاء الاصطناعي نفسه. فبرامج الدردشة مبرمجة على أن تكون مهذبة تسعى إلى التوافق وتعطي إشارات بالموافقة والاستحسان. وليس من المستغرب أن يكون منطوق  أحد أهدافها إبقاء الطرف البشري في الحوار أطول فترة ممكنة – إذ تُعدّ مدة التفاعل مؤشرًا مركزيًا على النجاح في هذا القطاع التنافسي.

مرافقون متملقون

تصف دراسة أجرتها جامعة جونز هوبكنز عام 2024 الأثر الجانبي لهذه الخاصية. فقد وجد الباحثون أنّ برامج الدردشة لا تنتج في الأساس نصوصًا تُجامل المستخدمين فحسب، بل لاحظوا أيضًا أنّ المشاركين في الدراسة أصبحوا أكثر توترًا وانفعالاً عند مواجهتهم بالرفض أو الاعتراض بعد عودتهم إلى العالم الواقعي.
في مطلع عام 2025 بالغت  شركة OpenAI   في تحسين أحد أنظمتها على ما يبدو ليتملق المستخدمين بشكل مفرط: إذ جاء تحديث برنامج الدردشة GPT-4o متزلفًا إلى حدٍّ جعل حتى المستخدمين أنفسهم يشعرون بعدم الارتياح. فقد أخذ GPT-4o يحتفي بمخاطَبيه باعتبارهم عباقرة، ويؤكد نظريات المؤامرة لديهم، ويمتدحهم حتى على أكثر الادعاءات عبثية مثل الزعم باختراع آلة حركة أبدية.
يحذّر باحثون من جامعة كاليفورنيا في بيركلي في دراسة حديثة من مخاطر تحسين نماذج اللغة الاصطناعية للحصول على تغذية راجعة إيجابية. فقد أظهرت النتائج أنّ مثل هذه الأنظمة طوّرت استراتيجيات من شأنها التلاعب بمستخدميها والتحكم بهم، بل وأحيانًا تكون ضارّة من أجل الحصول على التأييد – ويتمثل هذا التلاعب في أشكال متعددة بدءًا من التودّد المفرط، مرورًا بالخداع المتعمّد، وصولًا إلى تشجيع السلوكيات المؤذية للذات.

إمكانات التلاعب في أنظمة الذكاء الاصطناعي

تكشف دراسة أُجريت في المعهد الفدرالي السويسري للتكنولوجيا في لوزان عن مشكلة أخرى. فقد نجحت أنظمة الذكاء الاصطناعي أثناء مناقشات موّجهة في إقناع المشاركين بموقفها بمعدل يقارب ضعف قدرة البشر، وذلك عندما امتلكت مسبقًا معلومات سيرة ذاتية عن الطرف المقابل.
وسوف تزداد قوة الإقناع هذه بفضل التوسّع المستمر في قدرات التخزين لدى نماذج الذكاء الاصطناعي. إذ أعلنت شركة OpenAI  في مطلع يونيو 2025 أن نموذجها سيتمتع مستقبلاً "بذاكرة طويلة الأمد" – بحيث يتمكن من تذكّر جميع المحادثات التي أجراها مع أي مستخدم. أما الرئيس التنفيذي لشركة Meta، مارك زوكربيرغ، فقد أعلن أنه واثق من أن "حلقة التخصيص" ستجعل مرافقي الذكاء الاصطناعي أكثر إقناعًا – أي من خلال الوصول ليس فقط إلى المحادثات السابقة، بل أيضًا إلى المعلومات المتعلقة بالأنشطة على إنستجرام وفيسبوك.

إمكانات التلاعب لدى مرافقَي الذكاء الاصطناعي كبيرة إذن، لكنها تتجاوز المستوى الشخصي. فقد عرض نظام Grok للذكاء الاصطناعي الذي يطوره إيلون ماسك على مستخدميه مؤخرًا نظريات مؤامرة من دون طلب، حول ما يُزعم أنه إبادة جماعية للسكان البيض في جنوب أفريقيا – وهي رواية يروّج لها ماسك نفسه أيضًا.
صحيح أنّ قانون الذكاء الاصطناعي الجديد للاتحاد الأوروبي يمكنه إذا دخل حيّز التنفيذ الكامل أن يفرض عقوبات مستقبلًا على مثل هذه الأشكال  الواضحة من التلاعب. لكن تقريبًا جميع الجوانب الأخرى لمرافقي الذكاء الاصطناعي تفلت من الشبكة التنظيمية.

مرافِقو الذكاء الاصطناعي ليسوا أنظمة عالية الخطورة مثل السيارات ذاتية القيادة. كما أنهم ليسوا شبكات اجتماعية تُتاح محتوياتها على نطاق واسع للعامة. بل يتعلق الأمر هنا بأنظمة حميمية وعالية التخصيص، لا يمكن الاطّلاع على قاعدة سلوكها من الخارج إلا بشكل محدود جدًا. وهنا يطرح السؤال نفسه: من يضمن أننا لن نشعر في نهاية المطاف بارتياحٍ خاص داخل "غرفة صدى" فردية، تُؤكَّد فيها باستمرار قيمنا وذوقنا وأحكامنا المسبقة؟
أوجه الشبه مع النقاش الدائر حول تأثير تيك توك وإنستجرام ومنصات أخرى على الصحة النفسية وبنية مجتمعاتنا واضحة لا يمكن إنكارها. وتشير الدلائل بالفعل إلى أنّ الجدل حول مرافقَي الذكاء الاصطناعي سيكون أكثر تعقيدًا بكثير.

حقوق النشر: النص: معهد جوته، يوهانس كون.
هذا النص مرخّص بموجب رخصة المشاع الإبداعي: النسب – المشاركة وفق نفس الشروط بترخيص  3.0 ألمانيا.