التحيز و الخطأ  عندما يتحيز الذكاء الاصطناعي

سواءً كان يُستخدم للبحث أو لمراقبة المحتوى الآلي: فإن الذكاء الاصطناعي لا يكون مفيدًا إلا بقدر فائدة مجموعات البيانات الأساسية التي يعتمد عليها.
سواءً كان يُستخدم للبحث أو لمراقبة المحتوى الآلي: فإن الذكاء الاصطناعي لا يكون مفيدًا إلا بقدر فائدة مجموعات البيانات الأساسية التي يعتمد عليها. صورة (تفصيل) © ادوبي

في السنوات العشر الأخيرة، أصبحنا نعيش معظم حياتنا في العالم الرقمي الذي يسيطر عليه بضع شركات كبيرة فقط. هذه الشركات التي لا نستطيع الاستغناء عنها تتحكم بشكل كبير فيما نراه وننشره، وفي الأدوات المتاحة لنا.

عندما يتعلق الأمر بالصور عبر الإنترنت، تتم ممارسة سيطرة الشركات بعدة طرق رئيسية:  

أولاً، فيما يتعلق بما يمكننا رؤيته. تقوم الشركات – والحكومات – بحظر أنواع مختلفة من المحتوى، بدءاً من الجسد البشري العاري وصولاً إلى الصور أو الفيديوهات التي تحتوي على معلومات خاصة. خذ على سبيل المثال منع إنستغرام للمحتوى الجنسي الصريح، أو القاعدة الجديدة على تويتر التي تمنع مشاركة فيديو خاص. هذه القيود، رغم كونها مبررة في بعض الأحيان، قد يكون لها تأثير سلبي على المستخدمين الذين قد يكون لديهم سبب مشروع لمشاركة مثل هذا المحتوى.  

ثانياً، تقدم المنصات الشهيرة مثل سناب شات وإنستغرام وتيك توك فلاتر تشوه صورنا – وغالباً صورتنا الذاتية. هذه الفلاتر، التي تعرضت لانتقادات شديدة من المشرعين وعلماء النفس وغيرهم بسبب تأثيرها على صورة الجسد، تقدم لنا تصوراً موحداً غالباً لما هو "مفترض" أن نبدو عليه. ومع انتشار هذا التصور، قد يترسخ توقع معلم لشكلنا "المثالي"، مما قد يؤدي إلى التمييز أو التحيز ضد أولئك الذين يختارون عدم التوافق مع هذا التصور.  

ثالثاً – ولعل هذا الأكثر إثارة للقلق – هو الطريقة التي تستخدم بها الشركات الخوارزميات لعرض المحتوى في عمليات البحث أو في شريط صفحات شبكات التواصل الأجتماعي. التأثير الذي يتركه هذا على تصنيف وعرض الصور خصوصاً هو تأثير خادع: فغالباً ما تصنف الخوارزميات الصور بطرق تمييزية أو متحيزة أو خاطئة تماماً، وقد يكون لهذا عواقب بعيدة المدى على مستخدمي المنصات التي تعتمد عليها.  
 

تصنف الخوارزميات الصور بشكل روتيني بطرق تمييزية أو متحيزة أو خاطئة تمامًا.

خذ على سبيل المثال حادثة عام 2015، عندما صنفت تقنية التعرف على الصور من "جوجل" أشخاصًا سود خطأً على أنهم غوريلات. ورغم أن الحادثة بدت غير مقصودة، إلا أنها مثال صارخ على كيف يمكن تغذية الخوارزميات ببيانات تدريب تنتج نتائج إشكالية. فبالرغم من أن الخوارزميات تعمل بمنطق رياضي بحت، إلا أن البيانات التي تُغذى بها من صنع البشر، الذين يحملون تحيزاتهم وجهلهم إلى الطاولة.

الأمر الأكثر إثارة للقلق هو أن خوارزميات التعلم الآلي تعمل عادةً كصناديق سوداء، لا تشرح كيف توصلت إلى قرار معين – مما يترك المستخدمين عاجزين عن فهم ما إذا كان الخطأ ناتجًا عن عنصرية متعمدة مبرمجة في الكود، أو مجرد مجموعة بيانات سيئة الصياغة. ونظرًا لأن الشركات لا تشارك عادةً الافتراضات الأساسية التي تقوم عليها تقنياتها وبياناتها، فإن الجهات الخارجية غير قادرة على منع مثل هذه الأخطاء من الحدوث.

بينما يمكن كشف مثل هذه القصص بسهولة، فإن آثار الاستخدام الواسع لأدوات الذكاء الاصطناعي في مراقبة المحتوى الذي ينشئه المستخدمون يصعب اكتشافها، لأننا لا نستطيع رؤية الغالبية العظمى من الأخطاء التي ترتكبها هذه التقنيات، ناهيك عن المدخلات التي تسببها.

كما كتب أندرو سترايت، وهو مشرف محتوى سابق، في كتابه الصادر حديثًا "الذكاء الاصطناعي المزيف": "من المعروف سوء تلك الأنظمة في تحديد الفروق الدقيقة وسياق الخطابات عبر الإنترنت، إذ تفشل بشكل روتيني في تحديد ما إذا كان الفيديو يشكل انتهاكًا غير قانوني لحقوق النشر أو محاكاة ساخرة مشروعة، أو ما إذا كانت منشورًا يحتوي على إهانة عرقية كُتب من قبل ضحية جريمة كراهية أو من قبل المعتدي."

العين العمياء للذكاء الاصطناعي


أحد الأمثلة الموثقة جيدًا هو الضرر الناجم عن استخدام الذكاء الاصطناعي لتصنيف وإزالة المحتوى المتطرف والإرهابي – وخاصة الصور. فخلال السنوات الأخيرة، بدأت المنصات تعتمد بشكل متزايد على خوارزميات التعلم الآلي لاكتشاف وحذف المحتوى الذي ينطبق عليه هذا الوصف، بدعم من حكومات حول العالم. لكن المصنفات المستخدمة غالبًا ما تكون ثنائية الطبيعة، مما لا يترك مجالًا للسياق: إذا كانت الصورة تحتوي على رموز مرتبطة بمجموعة إرهابية معروفة، فسيتم تصنيفها على أنها محتوى إرهابي – حتى لو كان وجود الرمز لأغراض فنية أو احتجاجية على تلك المجموعة. وبالمثل، سيتم تصنيف المحتوى الموثق لأغراض تاريخية أو أرشيفية أو حقوقية – وحذفه على الأرجح. إن الاعتماد على التكنولوجيا في مهمة تتطلب هذا القدر من الدقة يضمن أن تكون النتائج فظة، تاركة مساحة ضيقة للتعبير الأساسي.

سواءً كان الذكاء الاصطناعي يُستخدم في البحث أو في مراقبة المحتوى الآلية، فإنه لا يكون مفيدًا – ولا "ذكيًا" إذا جاز التعبير – إلا بقدر جودة البيانات التي يعتمد عليها. فالبيانات عرضة للاخطاء والتحيزات البشرية. لذا، لمكافحة التمييز الناجم عن البيانات، يجب أن نتمكن من النظر خلف الستار لفهم – ومقاومة – الافتراضات والتحيزات الكامنة لدى البشر الذين يصنعون تلك البيانات، والتي تتحكم بشكل متزايد فيما نراه وكيف نراه.

لكن في حين أن الشفافية تتيح لنا فهم المشكلة وتصحيح أخطاء محددة، يجب أن نبدأ كمجتمع في طرح أسئلة أكبر حول الدور الذي نريده لهذه التقنيات في تشكيل رؤيتنا للعالم. ولتحقيق ذلك، يجب أن نتوقف عن اعتبار الذكاء الاصطناعي محايدًا، وأن نبدأ في فهم الطبيعة السياسية المتأصلة في استخدامه.

سواءً كان يُستخدم في عمليات البحث أو في المراقبة الآلية للمحتوى، فإن الذكاء الاصطناعي لا يكون مفيدًا - ولا "ذكيًا" إذا جاز التعبير - إلا بقدر جودة البيانات الأساسية التي يعتمد عليها. بيانات عُرضة للخطأ البشري والتحيز.

يعد استخدام الذكاء الاصطناعي لمكافحة التطرف مثالاً بارزًا على هذه الإشكالية. فالسياسات التي تحكم استخدام الذكاء الاصطناعي في هذا السياق هي بلا شك سياسية - بل إنها، بصراحة، سياسات استقطابية تفصل بين العنف المقبول (الذي تمارسه الدولة) وعنف الجهات الفاعلة غير الحكومية (المحددة). ورغم وجود مبررات مشروعة لإزالة المحتوى العنيف، إلا أن هذه السياسات لا تقتصر على الصور العنيفة فحسب، بل تمتد إلى أي محتوى مرتبط بمجموعة تصنفها الشركات أو الحكومات على أنها متطرفة. وبالتالي، فإن النتيجة النهائية ليست مجرد التخفيف من الأضرار، بل الإزالة الكاملة للمحتوى.

الذكاء الاصطناعي ليس محايدًا أبدًا واستخدامه سياسي بطبيعته: لماذا يتم إخفاء محتوى الجماعات الإرهابية عن الأنظار بدلاً من المحتوى العنيف في العموم؟
الذكاء الاصطناعي ليس محايدًا أبدًا واستخدامه سياسي بطبيعته: لماذا يتم إخفاء محتوى الجماعات الإرهابية عن الأنظار بدلاً من المحتوى العنيف في العموم؟ | صورة (تفصيل) © ادوبي

من "الأمان على الإنترنت" إلى "المحو الكلي"


تتعدد الأمثلة الأخرى: فمحو التعبير الجنسي تحت ذريعة "الأمان على الإنترنت"، أو تصنيف المعلومات المضللة والمزيفة، يمران في الغالب عبر الذكاء الاصطناعي المُدرَّب على مجموعات بيانات تقوم بدورها على سياسات جوهرها سياسي. ورغم أن هذه السياسات معروفة في جميع هذه الحالات، فإن معدل الأخطاء يظل مجهولاً في معظمها. بعبارة أخرى، بينما يمكننا تحليل هذه السياسات والمطالبة بتعديلها، فإننا عاجزون عن رؤية — وبالتالي عن استيعاب — حجم التعبير المشروع (أي الذي لا يخالف القيود) الذي يتم التقاطه وإزالته إضافياً بواسطة الذكاء الاصطناعي، دون أي رقابة تذكر، إن وُجدت.

فما العمل إذن؟

بعد فهم الطبيعة السياسية لاستخدام الذكاء الاصطناعي والسعي نحو الشفافية، هل نقبل بهذا الواقع الجديد كما هو، أم ثمّة تدخلات أخرى يمكننا القيام بها لتغيير مسار "التقدم"؟

كما أتناول في كتابي الأخير "قيم السيليكون: مستقبل حرية التعبير في عصر رأسمالية المراقبة"، فإن المستقبل لا يزال بأيدينا لكتابته. لا ينبغي لنا أن نقبل بهذا "روح العصر" الجديد كأمر مسلم به، بل أن نصر على أن "قرارات تحديد ما يُسمح لنا بالتعبير عنه يجب أن تحظى بمزيد من الاهتمام والرعايةالبشرية، لا أن تُترك لشطحات الخوارزميات والفاعلين الذين لا يخضعون للمحاسبة."
هذا يعني، في النهاية، أن علينا ألا نسعى فقط لتخفيف الأضرار الناتجة عن هذه الأنظمة التكنولوجية، بل لإعادة تشكيلها، وتقليص نطاقها، وربما حتى تفكيكها.