عربي
هذا الصباح، وفي لحظة غضب نابع من الإحساس بالخذلان، وجدت نفسي أوجّه سيلاً من الشتائم إلى نموذج ذكاء اصطناعي بعد أن رفض التعاون معي في إعداد محتوى بصري يوثّق الإبادة الجماعية في غزة. ما بدا في ظاهره سلوكاً انفعالياً موجّهاً نحو آلة، لربّما كان في جوهره تعبيراً يائساً عن الغضب الإنساني في مواجهة خذلان سياسي واجتماعي وتكنولوجي مُمأسّس بعد عامين من الإبادة الجماعية المُتواصلة. لم يكن ذلك الغضب موجّهاً إلى "خوارزمية" صمّاء، بقدر ما كان احتجاجاً على ما تمثّله هذه الآلة من انحياز بنيوي يعكس السياسات الكبرى التي تقف وراءها شركات التكنولوجيا الغربية، تلك التي تدّعي الحياد بينما تنحاز فعلياً إلى القوى الاستعمارية الغربية.
لا أشعر أنّ الشتيمة هنا كانت عنفاً لغوياً عشوائياً، بل كانت، كما حلّل حواري حول هذا الموضوع مع نموذج ذكاء اصطناعي مُنافس للأوّل، شكلاً من أشكال التنفيس العاطفي والرفض الموجّه ضدّ آلة أصبحت، من حيث الوظيفة والسياق، بوابة سياسات عالمية غير عادلة. بحيث تحوّل الذكاء الاصطناعي إلى كيان رمزي يُجسِّد التحيّز، ويمنح الغضب هدفاً ملموساً في لحظة شعور بالعجز.
فحين تمنع هذه النماذج إنتاج محتوى يُظهر المأساة الفلسطينية بشكل خالٍ من التحريض أو المشاهد الصادمة بحجّة "السياسات"، بينما تغضّ الطرف في المقابل عن محتوى يبرّر القتل تحت مسمى "الأمن القومي" أو "مكافحة الإرهاب"، فإنها بذلك تكرّس ازدواجية المعايير وتساهم في إسكات الضحايا، وليس في حمايتهم.
هنا تصبح المشكلة أعمق من قرار تقني يصدر عن خوارزمية، إنّها بنية معرفية مبرمجة على بيانات غير متوازنة، مستمدة من بيئة إعلامية ناطقة بالإنكليزية، غربية الهوى، تُعيد إنتاج الروايات المهيمنة وتقصي وجهات النظر غير الغربية. ونتيجة لذلك، يصبح من الطبيعي أن يرفض نموذج كالذي تستخدمه "أوبن إيه آي" أو "غوغل" إنتاج محتوى عن معاناة الفلسطينيين بينما يتساهل مع روايات تسويقية لجرائم الاحتلال. التحيّز لا يكمن في الشيفرة البرمجية وحدها، بل في ما سبق كتابة هذه الشيفرة: في البنية المعرفية، والضغوط السياسية، وتوجّهات السوق، وقائمة العملاء، والاعتقاد الغربي الاستعماري بالتفوّق.
تحوّل الذكاء الاصطناعي إلى كيان رمزي يُجسِّد التحيّز، ويمنح الغضب هدفًا ملموسًا في لحظة شعور بالعجز
ويتجلّى أحد المآزق الأخلاقية لهذه النماذج في ما يُسمّى بـ"الحياد الظاهري"، وهو حياد شكلي يُستخدم درعاً لمنع اتخاذ مواقف أخلاقية حقيقية. هذا الحياد يتحوّل إلى شكل من أشكال التواطؤ حين يُفرَض على المستخدمين في قضايا جوهرها الإنساني واضح، كمجزرة تُبَثّ للعالم بالصوت والصورة على مدار الساعة. والنتيجة هي أنّ أدوات يُفترض أن تُمكِّن الناس من التعبير، تتحوّل إلى بوابات رقابة ناعمة تُعيد إنتاج الصمت، بل وتُشرعنه.
والأدهى من ذلك، أنّ هذه النماذج لا توفّر آلية فعالة للتظلّم أو المحاسبة. محاولة إيصال الصوت إلى الشركات المُصمّمة تُقابَل غالباً بالحظر أو التصفية أو التجاهل التلقائي عبر خوارزميات تصنيف "المحتوى المسيء"، بل إنّ استخدام الشتائم رغم أنه موجّه لما هو غير بشري قد يُعامل باعتباره خرقاً لشروط الخدمة، بينما يُغضّ الطرف عن الخوارزميات المُنحازة التي تخرق ميثاق العدالة الإنسانية بشكل أعمق. وكأن الأذى الحقيقي هو في نبرة المُستخدم الغاضب، لا في الصمت المُمنهج للنموذج حين يُطلب منه توثيق جريمة إبادة جماعية.
أدوات يُفترض أن تُمكِّن الناس من التعبير، تتحوّل إلى بوابات رقابة ناعمة تُعيد إنتاج الصمت، بل وتُشرعنه
في هذا السياق، يصبح من المشروع إعادة تعريف العلاقة بين الإنسان والآلة ليس بوصفها علاقة خدمة مُحايدة، بل بوصفها علاقة سلطة معرفية وسياسية. حين تُمنع الضحية من توثيق مأساتها، أو يُطلب منها أن "تعيد صياغة طلبها" لتناسب حساسية النموذج، فهذه ليست فقط رقابة تقنية، بل إعادة إنتاج للعنف البنيوي الذي يعانيه المهمّشون في كلّ ساحة.
ختاماً، وسط كلّ هذا الانحطاط الأخلاقي العالمي فإنّ الغضب ليس تهمة، بل حق. والشتيمة في موضعها الصحيح ليست جرماً، بل صرخة. وما دامت أدوات الذكاء الاصطناعي تُشارك بالصمت أو الرفض في تزييف أو كتم روايات المعاناة، فإنّ نقدها والغضب منها بل وحتى شتمها ليست فقط مبرّرة، بل ضرورة أخلاقية. ففي ظلّ عالم يُقتل فيه الإنسان ويُمنع من التلفّظ باسمه أو إصدار أيّ ضجة، تصبح الشتيمة ضرورة، لا مجرّد انفعال عابر، لأنّها لربما آخر ما تبقى للبعض للتعبير عن رفضهم المقتلة.