ذكاء اصطناعي  3 د الذكاء الاصطناعي المٌروع

الذكاء الاصطناعي ليس عادلاً أو محايدًا كما يتصور البعض
الذكاء الاصطناعي ليس عادلاً أو محايدًا كما يتصور البعض صورة (تفصيل): © ادوبي

في عالمنا المعاصر، لا شيء يمكنه الإفلات من الثورة الرقمية. طريقة تنقلنا وتواصلنا واستهلاكنا تُدار بواسطة أكواد برمجية، وهذه الأكواد تزداد ذكاءً يوماً بعد يوم. لكن الذكاء الاصطناعي ليس عادلاً أو محايداً كما قد يبدو.

في مسار تصادمي


"عطل خطير": أضواء حمراء تومض على لوحة قيادة سيارتك ذاتية القيادة. أنت تقترب من إشارة مرور، وفجأة تتعطل الفرامل. في غضون ثوانٍ، ستتسبب السيارة في حادث. هل ستعطي البرمجة التعليمات للسيارة ذاتية القيادة بمتابعة السير مما سيودي بحياة المشاة على الطريق أمامك؟ أم ستتخذ مساراً جديداً وتنحرف نحو عمود قريب، مما سيتسبب بإيقاف السيارة ولكن قد يؤدي إلى قتل من بداخلها؟ هل يمكن لأي شخص في العالم، ناهيك عن برنامج حاسوبي، أن يتخذ القرار الصحيح في هذا السيناريو؟

اهتمامي بأخلاقيات الذكاء الاصطناعي بدأ مع هذه النسخة الحديثة من مشكلة العربة (trolley problem) الشهيرة. في عام ٢٠١٦، كنت مهندس برمجيات في سيليكون فالي حيث كنت أعمل على برامج تحكم السيارات ذاتية القيادة. لم تكن هذه المعضلة مجرد تجربة فكرية فلسفية بالنسبة لنا، بل كانت ما نسميه في علوم الحاسوب "أسوأ تصور ممكن".

في عالمنا الحديث، لا شيء يمكنه الإفلات من الثورة الرقمية. طريقة تنقلنا وتواصلنا واستهلاكنا: في عام ٢٠٢٢، كل شيء يُدار بواسطة أكواد يكتبها فريق من المهندسين الذين يحملون أفكارهم ومعتقداتهم وتحيزاتهم حول كيفية سير العالم. لكن التحيزات الخوارزمية كانت دائماً جزءاً من علوم الحاسوب. في عام ١٩٧٦، حذرنا رائد الحاسوب جوزيف فايزنباوم من العواقب الضارة (المقصودة أو غير المقصودة) للأكواد. وظهرت حالات مبكرة من البرامج غير الأخلاقية بعد ذلك بفترة قصيرة. بين عامي ١٩٨٢ و ١٩٨٦، تم رفض إلتحاق أكثر من ٦٠ امرأة وأفراد من الأقليات العرقية في مستشفى سانت جورج الجامعية بسبب تحيزات في نظام تقييم آلي. لسوء الحظ، لم يكن حتى جوزيف فايزنباوم ليتنبأ بحجم المشكلة مع نضوج برامج الذكاء الاصطناعي وقودها للثورة التكنولوجية القادمة.

قوي هائلة، مسئوليات هائلة؟

في أوائل العقد الثاني من القرن الحادي والعشرين، قدم لنا الذكاء الاصطناعي والتعلم الآلي تحولاً جذرياً في طريقة كتابة الأكواد. بدلاً من كتابة سلسلة محددة من التعليمات (تخيلها كوصفة في كتاب طبخ) تخبر الحاسوب بما يجب فعله، تسمح لنا الآن طرق التعلم الآلي بإنشاء أكواد من كميات كبيرة من البيانات (مشابهة لطاهٍ مخضرم تعلم من خبرته). وهذا يمكّن المطورين من إنشاء تطبيقات كانت تعتبر مستحيلة في السابق، مثل التعرف الدقيق على الكلام والصور، وكذلك برامج ستتمكن يوماً ما من توجيه سيارة ذاتية القيادة داخل حركة مرور عسرِة. لكن لا يوجد غداء مجاني، فهذه النتائج المذهلة تأتي بثمن باهظ. يعتمد الذكاء الاصطناعي على نماذج الصندوق الأسود. في حالته الحالية، لا يمثل الذكاء الاصطناعي فقط تحيزات المبرمج، بل يضيف أيضاً تحيزات إضافية من بيانات التدريب المستخدمة في تطويره. ولأننا لا نفهم حقاً كيف تعمل هذه الصناديق السوداء بعد، فإن برامج الذكاء الاصطناعي معرضة بشدة للهجمات الخبيثة ومن الصعب السيطرة عليها.

لا يمثل الذكاء الاصطناعي فقط تحيزات المبرمج، بل يضيف أيضاً تحيزات إضافية من بيانات التدريب المستخدمة في تطويره.

أحدثت التطورات التكنولوجية معضلات أخلاقية قد تبدو كحبكات من خيال كاتب خيال علمي. قد تقوم برامج الذكاء الاصطناعي في السيارات ذاتية القيادة باتخاذ قرار الانحراف أو عدمه بناءً على بيانات التدريب الأساسية المستخدمة. قد يتم تدريبهم على حساب عدد الأشخاص واتخاذ القرارات بناءً على الأعداد الإجمالية. قد تتخذ البرامج أيضاً قرارات بناءً على التعرف القائم على الصور لصفات مثل الجنس أو العمر أو الجنسية (راجع "الآلات الأخلاقية لمعهد ماساتشوستس للتكنولوجيا").

تعلمت من هذه المشكلة أنه من الضروري النظر في هذه الإخفاقات المحتملة والتحيزات الخوارزمية الخفية. قد لا يكون هناك أبداً قرار واحد صائب يمكن لسيارة ذاتية القيادة اتخاذه في مسألة مشكلة العربة، لكننا كمجتمع نعلم أن برامج الذكاء الاصطناعي لا يمكنها اتخاذ قراراتها بناءً على سمات تمييزية مثل العرق أو الجنس.

من المخيف في كثير من الأحيان التفكير في المسؤولية الهائلة التي تأتي مع برمجة تطبيقات الذكاء الاصطناعي. يمكن لعمل عدد قليل من المهندسين المختارين أن يؤثر على حياة المليارات. لكن لا داعي للقلق، كما اعتقدت. بالتأكيد، يمكننا أن نثق بأن القلة في القمة يدركون أعطال النظام الحرجة ولن يستخدموا قوتهم لإنشاء تطبيقات ذات عواقب ضارة (مقصودة أو غير مقصودة). لسوء الحظ، تحطمت آمالي بسرعة عندما بدأت ألقي نظرة أقرب.

يمكن لعمل عدد قليل من المهندسين المختارين أن يؤثر على حياة المليارات.

الذكاء الاصطناعي موجود بالفعل، و هو مُروع

تركت عملي بالسيليكون فالي لبدء الدكتوراه في الذكاء الاصطناعي. كان هدفي النهائي جعل الذكاء الاصطناعي أكثر موثوقية. في أحد الأيام، صادفت مقالاً إخبارياً يصف شركة ناشئة تستعين بالتعرف المرئي بواسطة الذكاء الاصطناعي من أجل "توظيف خالٍ من التحيز". اصابني هذا المقال بقشعريرة باردة أسفل عمودي الفقري على الفور. إن تطبيق تكنولوجيا غير مفهومة جيداً على أحد أهم القرارات في حياة أي شخص – سواء تم توظيفهم أم لا – أمر مرعب. الذهاب إلى حد الادعاء بأن الذكاء الاصطناعي يمكن استخدامه لتجنب التحيز البشري ليس خاطئاً فحسب، بل خطير جداً أيضاً.

لا شيء أبعد عن الحقيقة، حيث أنه في كثير من الحالات، تضخم أنظمة الذكاء الاصطناعي وتوقعاتها من التحيزات الموجودة على نطاق غير مسبوق بدلاً من تجنبها. لفهم هذه الظاهرة، من المهم التعمق أكثر في السر الخفي لأي برنامج ذكاء اصطناعي: البيانات التاريخية التي يستقي منها البرنامج معلوماته. بشكل عام، يتم إنشاء مجموعات البيانات وجمعها واختيارها من قبل الأشخاص في موقع اتخاذ القرار. في حالة التوظيف القائم على الذكاء الاصطناعي، تتكون البيانات من سجلات جميع التعيينات السابقة. إنها انعكاس لتحيزات ومعتقدات ورؤى القائمين عليها والبيئة التي جُمعت فيها. قد تعود قائمة التعيينات السابقة عقوداً إلى الوراء إلى مجتمع نعتبره الآن غير عادل للغاية تجاه بعض الأجناس والأقليات.

لذلك، لم أكن متفاجئاً على الإطلاق عندما أظهر الباحثون أن أدوات التوظيف القائمة على الذكاء الاصطناعي تتعلم بسرعة تفضيل المرشحين الذكور على الإناث. في بعض الحالات، ذهبت إلى حد معاقبة السير الذاتية التي تتضمن كلمة "نسائي"، مثل "قائد نادي الشطرنج النسائي". سعياً لزيادة الوعي بهذه المشكلة، بدأت قائمة تسمى "الذكاء الاصطناعي المُروع". على مر السنين، نمت هذه القائمة لتشمل مئات التطبيقات التي تقع في فئات شائعة مثل التمييز، والتضليل، والمراقبة، والأسلحة.

أتمتة العنصرية

غالباً ما تكون العواقب الضارة لتطبيقات الذكاء الاصطناعي غير مقصودة من قبل مبتكريها ويمكن أن تُعزى إلى نقص الفهم والوعي بالقضايا الأخلاقية والقيود التقنية. نأخذ تاي على سبيل المثال، وهو روبوت محادثة طورته مايكروسوفت وتم تدريبه من مدخلات تويتر. في غضون يوم واحد من إطلاقه، اضطرت مايكروسوفت إلى إيقاف تاي بعد أن بدأ يطلق رسائل معادية للسامية. برنامج التعرف على الصور من غوغل هو مثال آخر. فقد نعت وجوه عدة أشخاص سود بأنهم غوريلات. حدد نظام امازون للتعرف على الوجوه نساء ذوات بشرة داكنة كرجال بنسبة ٣١% من الوقت، بينما أخطأ في تحديد هوية نساء ذوات بشرة فاتحة بنسبة ٧% فقط.

من المعروف جيداً أن جميع خدمات التعرف على الصور على نطاق واسع تعاني من مشاكل العنصرية الآلية. طور الباحثون أدوات وطرقاً في السنوات الأخيرة لدراسة نماذج الذكاء الاصطناعي بشكل منفرد على أمل تقليل آثارها الضارة. لكن بينما تعمل هذه الأدوات والطرق بشكل جيد في الحالات الفردية، فإنها غير قادرة على منع مشكلة أكثر انتشاراً: بينما نتحرك نحو عصر الأتمتة، تُستخدم التوقعات المتحيزة الآن كحجر أساس للعديد من الجوانب شديدة الأهمية في المجتمع، مثل إنفاذ القانون.

تضخيم التمييز

"بريدبول" هو برنامج شرطة تنبؤي قائم على الذكاء الاصطناعي تستخدمه إدارة شرطة لوس أنجلوس للتنبؤ ببؤر الجريمة المحتملة. ثم يوصي البرنامج ضباط الشرطة بدوريات في المواقع المحددة. هذه هي نفس الفكرة الخطيرة: البشر غير كاملين، لذا يجب علينا استخدام تكنولوجيا ذكاء اصطناعي "موضوعية" لاختيار مواقع الدوريات، وبالتالي، اعتقال الأفراد بناءً على توقعاتها. ربما تكون قد خمنت الآن أين تكمن المشكلة: لم يكن باحثو الذكاء الاصطناعي متفاجئين عندما كشفت الدراسات أن "بريدبول" أظهر تحيزاً خطيراً تجاه المواقع التي زُورَت بشكل متكرر في الماضي. أدى هذا إلى زيادة الدوريات في الأحياء ذات الأغلبية الملونة. تم تدريب الذكاء الاصطناعي على بيانات تاريخية من الاعتقالات السابقة في الولايات المتحدة، والتي تعتبر مؤشراً قوياً على العنصرية المنهجية داخل نظام العدالة. لذلك، لم يكتف "بريدبول" بعكس العنصرية الموجودة في بيانات التدريب الخاصة به، بل أتمت هذه العنصرية على نطاق واسع وضخم آثارها.

ما يجعل هذا المثال خطراً على المجتمع هو أن فكرة برنامج ذكاء اصطناعي "موضوعي" - وإن كان معقداً - تشجع ضباط الشرطة على عدم التشكيك في توقعاته. فبعيداً عن الموضوعية، يمكن استخدام توقعات "بريدبول" لتبرير وتضخيم العنصرية الموجودة أصلاً ضد المجتمعات الملونة. وهذا يخلق حلقة مفرغة: فبينما يشجع الذكاء الاصطناعي على المزيد من الاعتقالات في المجتمعات الملونة، تُغذى هذه البيانات في مجموعات البيانات الجديدة التي تُستخدم لاحقاً لتدريب الخوارزمية.

يجرب الاتحاد الأوروبي برامجه الخاصة للذكاء الاصطناعي في إنفاذ القانون، مثل اختبارات كشف الكذب بالذكاء الاصطناعي للمسافرين الوافدين إلى الاتحاد الأوروبي أو أنظمة كشف الاحتيال المعتمدة على الذكاء الاصطناعي. لحسن الحظ، يتزايد الوعي بهذه المشكلة، وبدأت بعض المدن الكبرى حظر استخدام تكنولوجيا الذكاء الاصطناعي في إنفاذ القانون. ولكن ماذا لو كانت الممارسات التمييزية والتحكم الآلي تخدم أجندة الدولة؟ كيف سيبدو المجتمع إذا تبنت الدولة مشاكل الذكاء الاصطناعي المتحيز بدلاً من معالجتها؟

لطالما دفعت الحكومات الاستبدادية حدود الذكاء الاصطناعي لاستخدامه في المراقبة وأغراض غير أخلاقية. والآن تسمح العديد من الابتكارات في الذكاء الاصطناعي بتوسيع نطاق المراقبة في الوقت الفعلي لتغطية كل أثر رقمي أو مادي. فالمراقبة لم تعد تقتصر على التعرف على هوية الشخص. إذ يتم حالياً تطوير برامج ذكاء اصطناعي يمكنها التنبؤ بميول الشخص الجنسية، أو الأمراض التي قد يعاني منها، أو احتمالية تورطه في نشاط إجرامي بناءً على ملامح الوجه فقط. ويخطط الحزب الشيوعي الصيني للمضي قدماً في هذا الاتجاه باستخدام تطبيقات الذكاء الاصطناعي لتحديد عواقب واقعية لمن لا يتبعون قواعد معينة. حيث تمنح أنظمة "الائتمان الاجتماعي" كل مواطن نقاطاً آلية، وتحدد حقوقه وفقاً لدرجته. ويتم حالياً اختبار هذه الأنظمة كنظم للحوافز والعقاب في العديد من المناطق الصينية، واستخدامها لاضطهاد الأقليات العرقية.
 

منع اساءة استخدام البيانات

رسم هذا المقال صورة قاتمة للذكاء الاصطناعي. لكن ليس كل الأمل مفقود – وجزء مهم من التغيير هو زيادة الوعي بأن هذه التطبيقات موجودة أو قد توجد في المستقبل القريب. لمنع تطبيقات الذكاء الاصطناعي المٌروعة من السيطرة على حياتنا، نحتاج إلى تعاون جميع أفراد المجتمع كفريق واحد. كمهندسين وتقنيين، نحتاج إلى أن نكون واعين للتطبيقات التي نطورها والمسؤولية التي نحملها عند نشرها في العالم الحقيقي. من المهم النظر في الإخفاقات المحتملة والأخلاقيات والمبادئ التوجيهية الاجتماعية.

أظهرت أبحاث جديدة أنه يمكننا منع إساءة استخدام البيانات. تكتشف التكنولوجيا اللامركزية ومشاريعنا البحثية مثل "كارا" طرقاً للحد تلقائياً من تطوير تطبيقات الذكاء الاصطناعي دون موافقة أصحاب البيانات. تدعو مبادرات مثل "أوقفوا الروبوتات المُدمِرة" على أعلى مستويات السياسة إلى حظر تطبيقات الذكاء الاصطناعي الضارة وتثقيف صانعي القرار. كصانعي سياسات، من المهم فهم حدود التطورات التكنولوجية الحالية وتصميم لوائح يمكنها تعزيز التطوير الآمن للذكاء الاصطناعي.

كرواد أعمال، نحتاج إلى التأكد من عدم الوقوع في فخ الضجة حول الروبوتات الذكية القوية من أجل تحقيق ربح قصير الأجل. الذكاء الاصطناعي ليس حلاً سحرياً يمكن استخدامه لحل جميع مشاكل العالم. إنه أداة يمكنها تقديم حلول جديدة وتوسيع نطاقها، وفي نفس الوقت تعزيز المشاكل الموجودة. هناك الكثير من العمل الذي يتعين القيام به ولا وقت للخوف.

المزيد ...