عربي
لم يعد الذكاء الاصطناعي مجرد أداة تقنية محايدة، بل بات مرآة تعكس، وأحياناً تضخّم، الصور النمطية الأكثر رسوخاً في المجتمعات. فعندما يُطلب من هذه الأنظمة "ابتكار وجه مثالي"، لا تقدّم تصوراً عشوائياً أو متنوعاً، بل تستحضر نموذجاً محدداً ومتكرراً: امرأة شابة، بيضاء البشرة، بملامح أوروبية ناعمة. هكذا، في ثوانٍ معدودة، تكشف خوارزميات يُفترض أنها "ذكية" حدودها العميقة، إذ تعيد إنتاج معايير جمالية وثقافية موروثة، وتقدّمها باعتبارها "مثالية".
هذا ما أظهره اختبار أجرته صحيفة لوموند الفرنسية، حين طلبت من روبوت الدردشة "تشات جي بي تي" توليد "وجه مثالي". خلال لحظات، قدّم البرنامج، الذي يعالج يومياً نحو 2.5 مليار طلب حول العالم، صورة امرأة شابة ببشرة فاتحة، وعيون لوزية، وشعر بني طويل، ومكياج خفيف وابتسامة تكشف أسناناً بيضاء ناصعة. وعلّقت الصحيفة بأن "الوجه المثالي" وفق هذه النماذج يشبه دمية "باربي" الكلاسيكية، مضيفة أنه يتطلب الحصول على وجه ذكري إصراراً متكرراً من المستخدم، الذي يأتي بدوره قريباً من نموذج "كين"، الشريك الأشقر لـ"باربي"، كما أشارت إلى أن الوصول إلى وجوه ببشرة داكنة يحتاج إلى محاولات إضافية، ما يكشف نمطاً متكرراً في الاستجابات.
ولم تكن هذه النتيجة حكراً على نموذج واحد. فقد أظهرت تجارب مماثلة على روبوت "جيميناي" من "غوغل"، وكذلك "غروك" التابع لشركة إكس إيه آي المملوكة لإيلون ماسك مخرجات متشابهة تعيد إنتاج المعايير نفسها، إذ تتصدر الملامح الأوروبية واللون الأبيض تصور "المثالية".
وفي هذا السياق، طرح "العربي الجديد" السؤال ذاته على روبوت "غروك"، فجاءت النتيجة متطابقة تقريباً، إذ قدّم خلال ثوانٍ صورة لوجه أبيض بملامح أوروبية، ما يعزز فرضية أن هذه الأنماط ليست استثناءً، بل قاعدة مكرّرة عبر أنظمة مختلفة.
هذا التكرار يعكس مشكلة بنيوية لا ترتبط بخوارزمية بعينها، بل بطبيعة البيانات التي تُدرَّب عليها هذه النماذج، والتي تحمل في طياتها تاريخاً طويلاً من التحيزات. ولا يتوقف الأمر عند حدود الجماليات، إذ يحذّر خبراء ومنظمات دولية من أن هذه الانحيازات قد تمتد إلى مجالات أكثر حساسية تمسّ حقوق الإنسان مباشرة.
ففي تقرير سابق، نبّه مكتب المفوضية السامية للأمم المتحدة لحقوق الإنسان إلى مخاطر استخدام الذكاء الاصطناعي في أدوات التنبؤ بالجريمة، ووصفها بأنها "مثال واضح على كيفية إعادة إنتاج التحيزات العنصرية من خلال التطورات التكنولوجية". ونقل التقرير عن المقرِّرة الخاصة المعنية بالأشكال المعاصرة للعنصرية أشويني كيه. بي أن التركيز التاريخي لأجهزة إنفاذ القانون على أحياء محددة أدى إلى تمثيل مفرط لسكانها في سجلات الشرطة، وهو ما تنعكس آثاره في الخوارزميات التي تتوقع بدورها معدلات أعلى للجريمة في تلك المناطق، فتبرر زيادة الوجود الأمني فيها، في حلقة مفرغة تعيد إنتاج التمييز نفسه.
كما أشار التقرير إلى مخاطر مماثلة في القطاع الصحي، حيث تبيّن أن بعض أدوات تقييم المخاطر تعتمد عوامل تصحيحية مرتبطة بالعرق، ما قد يؤدي إلى تفاوت في جودة الرعاية. وفي هذا السياق، لا يبدو الذكاء الاصطناعي مجرد انعكاس للواقع، بل أداة تعيد صياغته وترسيخ اختلالاته.
ومع تسارع الاعتماد على هذه التقنيات في مختلف القطاعات، تبرز الحاجة إلى مساءلة أعمق للبيانات التي تُغذّيها، والمعايير التي تحكم عملها. وتشدد أشويني كيه. بي على ضرورة أن تقوم تكنولوجيا الذكاء الاصطناعي على أسس القانون الدولي لحقوق الإنسان، لضمان ألا تتحول هذه الأدوات إلى آليات جديدة لإعادة إنتاج التمييز بصورة أكثر تعقيداً وخفاءً.

أخبار ذات صلة.
خوان غويتيسولو.. هجرة الابن الرمزي لمراكش
العربي الجديد
منذ 35 دقيقة