الجمعة 4 يوليو 2025
رئيس مجلس الإدارة
هبة صادق
رئيس التحرير
وليد طوغان

9 طرق يمارس فيها الذكاء الاصطناعى التمييز ضد النساء

ما لم نعط الأولوية للإنصاف والسلامة فى مرحلة التصميم فإن الذكاء الاصطناعى يمثل خطر إدامة التحيز المؤذى وإعادة كثيرين منا للعصور المظلمة (يونيفرسال بيكتشرز).



وأفادت تقارير حديثة بأن %40 من شركات المملكة المتحدة تستخدم الذكاء الاصطناعى فى عمليات التوظيف، قد يبدو ذلك صورة غير مؤذية من ترشيد عملية تستهلك كثيراً من الوقت، ولا سيما أن أدوات الذكاء الاصطناعى قادرة على تقليص لائحة طويلة من المتقدمين للوظيفة عن طريق انتقاء «أكثرهم ملاءمة» لشركتكم.

لكن هذا الانطباع يتغير طبعاً عندما تتوقفون عند طريقة تدريب نماذج الذكاء الاصطناعى هذه، فهى تلقن كميات هائلة من المعلومات كى تصبح قادرة على «تخمين» أى المتقدمين للوظيفة هم أكثر أشخاص يتوقع نجاحهم فيها، وهو ما يجعلها تفترض أحياناً (بسبب انعدام المساواة وقلة تمثيل بعض الفئات الموجودة فى سوق العمل حالياً) أن الرجال البيض مثلاً هم أقوى المرشحين لتولى المناصب العليا. 

قد يقول المستفيدون من هذه التكنولوجيا إن هذه المشكلة حلها بسيط، فما علينا سوى إخفاء الجنس الاجتماعى للمتقدمين بطلبات التوظيف عن أدوات الذكاء الاصطناعى، لكن حتى فى هذه الحال، تبين أن التمييز يظل قائماً بصورة غير مباشرة، عبر تعرف النظام على كلمات ذات طابع جندرى فى السير الذاتية (ومنها مثلاً كرة «الشبكة» التى تهيمن عليها النساء أو اسم مدرسة للفتيات فقط)، مما يبقى النساء فى موقع غير متكافئ، كما أن دراسة حديثة أخرى كشفت عن أن أدوات التوظيف بالذكاء الاصطناعى قد تميز أيضاً ضد المتقدمين بناء على أنماط حديثهم.

وحتى قبل تقدم النساء إلى الوظيفة، بدأ الذكاء الاصطناعى بالتدخل فى فرصهن بالحصول على عمل، إذ تبين أن خوارزميات الدعاية فى «جوجل» قد تعرض على الرجال الباحثين عن عمل إعلانات وظائف لمناصب تنفيذية عليا تخصص لها أجور مرتفعة  بمعدل ست مرات أكثر من النساء الباحثات عن عمل.

توليد المحتوى

أكثر من 100 مليون شخص يستخدمون «تشات جى بى تى» شهرياً، لكن البرنامج، كأمثاله من النماذج اللغوية الكبيرة LLMs، يعمل عن طريق استهلاك مجموعات ضخمة من البيانات لتوليد نصوص «تبدو بشرية» أو صور واقعية تبعاً للأوامر التى كتبها المستخدمون. وعندما تكون هذه البيانات مثقلة بالأحكام المسبقة، لا يجتر الذكاء الاصطناعى الذى يولد النصوص انعدام المساواة بل يعظمها أيضاً. ففى دراسة لـ«يونيسكو» حول المحتوى المولد عبر منصات الذكاء الاصطناعى التى تحظى بشعبية كبيرة وجدت أن هناك «إثباتاً لا لبس فيه عن التمييز ضد النساء فى المحتوى الذى جرى إنشاؤه»، فالنماذج قرنت الوظائف المرموقة فى «الهندسة» أو «الطب» مثلاً بالرجال، فيما خصصت للنساء وظائف «الخدمة المنزلية» أو حتى «البغاء». ومن المرجح أن يكبر أثر هذا التضخيم للسرديات التمييزية من النماذج اللغوية الكبيرة مع استخدامها أكثر فأكثر، إذ تشير التقديرات إلى أن نحو 30 فى المئة من المحتوى التسويقى الخارجى لمنظمات كبرى سيولده الذكاء الاصطناعى بحلول نهاية العام الحالى (بينما كان أقل من اثنين فى المئة فى 2022). 

يسجل العالم حالياً فجوة ائتمانية بقيمة 17 مليار دولار، لها أثر ضخم فى انعدام المساواة بين الجنسين، عندما لا تتمتع المرأة باستقلالية مادية، يتضاعف خطر تعرضها إلى مجموعة من المشكلات، بدءاً من العنف المنزلى ووصولاً إلى الزواج بالإكراه. ومع أن مطورى الخوارزميات وخبراء البيانات الذين يصممون أنظمة التقييم الائتمانى هم فى الغالب من الرجال، يعيشون فى الولايات المتحدة، ومن ذوى الدخل المرتفع، فإنهم لا يمثلون الفئة المستهدفة من المستخدمين الذين تطبق عليهم هذه الأنظمة، ومع ذلك فهم من يحددون نتائجها النهائية. ونظراً إلى أن النساء عانين تاريخياً التمييز فى قرارات الإقراض، فإن المخاوف تتزايد من أن الشركات التى تستخدم أنظمة ذكاء اصطناعى فى التقييم الائتمانى تكرس هذا التمييز الممنهج، مما يهدد بإقصائهن أكثر فأكثر عن الحصول على القروض والخدمات المالية الأخرى.

العدالة الجنائية

تستخدم سلطات قضائية عدة فى الولايات المتحدة أداة تسمى «كومباس» Compas لمساعدتها فى اتخاذ قرارات فى شأن الإفراج عن الموقوفين قبل محاكمتهم أو الحكم عليهم، فيما تلجأ هذه الأداة إلى الذكاء الاصطناعى كى «تخمن» احتمالات إعادة اعتقال الشخص، لكن هذا النظام يستند إلى بيانات تتعلق بسجلات التوقيف السابقة، فى بلد تعانى فيه المؤسسات عنصرية ممنهجة تجعل الشخص الأسود أكثر عرضة بخمس مرات من نظيره الأبيض للتوقيف من الشرطة من دون مبرر، لذا حتى عندما لا تأخذ الخوارزمية العرق فى الاعتبار صراحة، فإنها تسهم فى استمرار دورة الاعتقال العنصرى.

وتبين كذلك أن برنامج كومباس يبالغ فى تقدير احتمالات تكرار النساء ارتكاب الجرائم، وهو ما يؤدى إلى إنزال عقوبات مجحفة فى حق الجانيات اللاتى غالبًا ما يكن ضحايا لاعتداءات جسدية أو جنسية. وفى المملكة المتحدة كشفت إحدى الدراسات أن استخدام الذكاء الاصطناعى لتعريف مناطق معينة على أنها بؤر للجريمة يدفع عناصر الشرطة إلى توقع حصول مشكلات عندما تجوب دورياتهم المكان، مما يزيد من احتمال توقيف الأشخاص أو اعتقالهم بدافع التحيز بدلاً من الضرورة الأمنية الفعلية.

يلعب الذكاء الاصطناعى دورًا متناميًا فى تقنيات التعرف على الوجه، التى تستخدم فى مجالات واسعة، من تطبيقات الشرطة إلى أنظمة دخول المبانى، لكن الشركات التى تروج لهذه التقنية بوصفها تقدم «راحة غير مسبوقة» مطالبة بطرح السؤال: راحة لمن بالضبط؟ فعلى رغم الانتشار السريع لهذه التقنيات، إلا أن فعاليتها تتفاوت بصورة كبيرة بين المستخدمين، إذ أظهرت أبحاث أن منتجات التعرف على الوجه لدى شركات كبرى تسجل معدل خطأ يصل إلى 35 فى المئة عند التعامل مع النساء ذوات البشرة الداكنة، فى مقابل 0.8 فى المئة فقط عند التعامل مع الرجال ذوى البشرة الفاتحة.

 

 

الرعاية الصحية

كشفت دراسة لكلية لندن الجامعية (UCL) عن أن نماذج الذكاء الاصطناعى التى أنشأت للتنبؤ بأمراض الكبد استناداً إلى تحليل الدم أكثر عرضة للخطأ فى كشف المرض بمرتين لدى النساء فى مقابل الرجال، وحذر كبير مؤلفى هذه الدراسة أن استخدام هذه الخوارزميات بصورة شائعة فى المستشفيات للمساعدة فى التشخيص قد يؤدى إلى تردى الرعاية التى تتلقاها النساء. وفى المقابل، فى الولايات المتحدة، تبين أن إحدى الخوارزميات التى يشيع استخدامها فى قطاع الرعاية الصحية للمساعدة فى تحديد هويات المرضى الذين يحتاجون إلى رعاية إضافية تعانى تمييزاً عرقياً كبيراً، إذ تفضل المرضى ذوى البشرة البيضاء على المرضى السود، وإن كان هؤلاء أشد مرضاً ويعانون مشكلات صحية مزمنة أكثر، وفقاً لدراسة نشرتها المجلة العلمية «ساينس». وبحسب تقديرات مؤلفى الدراسة، وصل الحال بالتمييز العرقى إلى درجة تقليص عدد المرضى السود الذين يحددون على أنهم بحاجة إلى رعاية إضافية بأكثر من النصف.

مئات ملايين الأشخاص يحملون تطبيقات «رفيقة» قائمة على الذكاء الاصطناعى تعيد تحويل النساء إلى أشياء «لا ترفض طلباً» مخصصة للاستهلاك الذكورى (وورنر بروز). 

العنف المنزلى

تمكن مرتكبو العنف المنزلى من مضايقة ضحاياهم وإخافتهن باستخدام الذكاء الاصطناعى لاختراق أجهزة التكنولوجيا التى يمكن ارتداؤها والأجهزة المنزلية الذكية، والتلاعب بها. فكل الأجهزة، من ساعات اليد وحتى التلفاز قد تسهل المراقبة والملاحقة عن بعد، وهذا خطر كبير عندما تأخذ فى الاعتبار التقديرات التى تشير إلى أن ما يقارب 125 مليار جهاز سيصبح متصلاً، بحلول عام 2040، بـ«إنترنت الأشياء» وهو ما قد يؤدى إلى زيادة المراقبة من المعتدين الساعين إلى ترسيخ سيطرتهم وسطوتهم.

فيما نحاول التوصل إلى طرق لمعالجة التحيز ضد المرأة على منصات التواصل الاجتماعي، وتبعات هذا السلوك الذى يجرد المرأة من إنسانيتها، يحمل مئات ملايين الأشخاص تطبيقات «رفيقة» قائمة على الذكاء الاصطناعى تعيد تحويل النساء إلى أشياء «لا ترفض طلباً» للاستهلاك الذكوري. وتطبيقات الصديقات الحميمات من الذكاء الاصطناعى أو روبوتات الدردشة التى يروج لها مطوروها غالباً على أنها أفضل من النساء الحقيقيات (تؤمن لك علاقة ممتعة من دون تلك الإرادة الحرة المزعجة)، تقدم للرجال «امرأة» شبيهة بالمرأة الحقيقية بخنوع ويمكن تكييفها بحسب الرغبة، تجعلهم يزهون بأنفسهم وهى رهن إشارتهم متى أرادوا، ويمكنهم استخدامها (وإساءة معاملتها) بحسب رغبتهم. وفى الواقع، عدد كبير من الرجال يسيؤون التعامل مع هذه البرامج ويشاركون نبذات مصورة عن هذه الأفعال مع بعضهم بعضاً، لكى يكتشفوا من بينهم قادر على ارتكاب أكبر الإساءات فى حق هذه البرامج. خلال العام الماضى فقط، سجل متجر «جوجل» لهواتف الآندرويد 100 مليون تحميل لـ11 برنامجًا للدردشة القائمة على الذكاء الاصطناعى تتصدر قائمة البرامج المثيلة، وهذا ليس مكسباً للرجال الوحيدين ولا للنساء اللاتى سيتلاقين بهم فى وقت لاحق.

إن كنا سنتصدى لانعدام المساواة المستشرى فى الذكاء الاصطناعى، علينا الاستعانة بمجموعات متنوعة من الأشخاص. فالتكنولوجيا نفسها ليست معادية للمرأة بحد ذاتها، لكن غالباً ما تسفر عن هذه النتائج غير المقصودة، وليس فقط بسبب البيانات المتحيزة والمليئة بالعيوب، بل أيضًا بسبب نقص التنوع فى المجموعات التى تؤسس هذه البرامج وتستفيد منها. فى الوقت الحالي، يعد تمثيل النساء ضعيفًا إلى أبعد الدرجات فى كل جانب من جوانب أبحاث الذكاء الاصطناعى وتطويره واستخدامه. وعلى الصعيد العالمى، لا تشكل النساء سوى 12 فى المئة فقط من الباحثين فى الذكاء الاصطناعى، ومع أنهن يقدن بعضاً من أكثر الجهود إثارة من أجل إنشاء ذكاء اصطناعى آمن وأخلاقى، إلا أن المجموعات التى تترأسها نساء لا تزال تحصل على تمويل من رأس المال الاستثمارى أقل بـ  6 مرات من نظرائهن الذكور.

يحمل الذكاء الاصطناعى وعدًا بمستقبل جديد ولامع سيكون له تأثير إيجابى فى العالم الحقيقى، ولكن ما لم نعط الأولوية للإنصاف والسلامة فى مرحلة التصميم، بحيث يفضح الفكر المعيب القائم على التمييز والتحيز ويصحح، فإنه يمثل خطر إدامة التحيز المؤذى وإعادة كثيرين منا للعصور المظلمة، فلنأمل أن أحدهم يعير انتباهاً للتفاصيل الدقيقة.

 

من كتاب لورا بيتس «عصر جديد من التمييز على أساس الجنس» الصادر مؤخرًا

نقلا عن الإندبندنت عربية