في دراستها حول أخلاقيات الذكاء الصناعي، تكتب الباحثة لونا لحامد: "إن الذكاء الصناعي يتطلب منظومة أخلاقية توازي قدراته، فحين تُغيَّب هذه الأخلاقيات، يتحول من أداة للتقدم إلى وسيلة لصناعة كوارث أخلاقية لا يمكن احتواؤها".
لم يكن هذا التحذير مجرد نظرية أكاديمية، بل تحوّل في قطاع غزة إلى حقيقة دامغة، حيث أصبح الذكاء الصناعي أداة قتل ممنهجة، تُدار بأعصاب باردة وبلا أدنى شعور بالمسؤولية الأخلاقية.
ما يحدث في قطاع غزة اليوم لا تمكن قراءته فقط من زاوية الصواريخ والقذائف، بل أيضاً من خلف الشاشات والأنظمة الخوارزمية التي تدير الحرب بذكاء رياضي قاتل. لقد دخلت الحرب الإسرائيلية على غزة منعطفاً خطيراً؛ حيث تقود الخوارزميات الآن عمليات الاستهداف، وتُصنَّف الأجساد، وتُحدَّد أولويات القتل بناءً على بيانات ضخمة تُعالجها أنظمة الذكاء الصناعي لتقرر من يبقى ومن يُمحى. الأمر لم يعد مجرد قرار بشري خاطئ في لحظة انفعال، بل بات خطة قتل بدم بارد تُصاغ في رموز رياضية، بلا مساءلة، وبلا إنسانية.
تكنولوجيا "القتل الذكي" كما تُروَّج إسرائيلياً ليست سوى شكل حديث من أشكال الإبادة التي يُراد لها أن تبدو "محايدة"، بينما في الحقيقة يجري توظيفها بشكل استعماري بحت
تكنولوجيا "القتل الذكي" كما تُروَّج إسرائيلياً ليست سوى شكل حديث من أشكال الإبادة التي يُراد لها أن تبدو "محايدة"، بينما في الحقيقة يجري توظيفها بشكل استعماري بحت، يُخفي الجريمة تحت غطاء من التقدم التكنولوجي. فالذكاء الصناعي هنا لا يُستخدم لتحسين حياة البشر، بل لتقليل تكلفة الحرب على الطرف الأقوى، وتكثيف الدمار على الطرف الأضعف.
في قطاع غزة، تُستخدم تقنيات التعلم الآلي لتحديد الأهداف "ذات القيمة العالية"، وهي مصطلحات خادعة تعني أن أي بيت أو مدرسة أو مستشفى يمكن أن يُدرج على قوائم الإبادة في ثوانٍ معدودة. تُجمَع البيانات من الهواتف المحمولة، الكاميرات، الطائرات المسيّرة، وحتى من شبكات التواصل الاجتماعي، وتُعالج بشكل لحظي لتُتخذ قرارات القصف خلال دقائق، وربما أقل من ذلك.
بهذا المعنى، لم تعد الحرب مجرد فعل عسكري، بل أصبحت ممارسة تقنية–استعمارية، تنزع عن القتل طابعه الإنساني وتمنحه مظهراً "فعالاً" وخالياً من العاطفة والرحمة وكل معاني الإنسانية.
إن المأساة الأخلاقية هنا تتجاوز حدود قطاع غزة. فهي تطرح سؤالاً عميقاً على البشرية جمعاء: ما مصير الإنسان حين تتحول قرارات الحياة والموت إلى معادلات؟ وأين تتوقف حدود الأخلاق حين تصبح الحروب رقمية؟ لقد مكّن غياب الرقابة الدولية، وتواطؤ مؤسسات التكنولوجيا العالمية، من تطبيع هذه الأنظمة، بل وتصديرها بوصفها "حلولاً أمنية".
في الواقع، الذكاء الصناعي الذي يُفترض أن يُستخدم للإنقاذ، يُستخدم في قطاع غزة للإفناء والإبادة اليومية. تُغتال العائلات بأكملها بناءً على توصية خوارزمية مكونة من أرقام، ويُدفن الضمير العالمي تحت ركام البيوت التي قُصفت بذكاء قاتل، أو بإشعار حراري، أو بحركة مريبة لطفل لم يبلغ خمسة أعوام.
ما نشهده في قطاع غزة لا يمثل فقط انحرافاً تقنياً عن مسار التطور الإنساني، بل يشكّل نموذجاً قاتماً لانهيار القيم الأخلاقية حين تُختزل التكنولوجيا في وظيفة القتل
ما نشهده في قطاع غزة لا يمثل فقط انحرافاً تقنياً عن مسار التطور الإنساني، بل يشكّل نموذجاً قاتماً لانهيار القيم الأخلاقية حين تُختزل التكنولوجيا في وظيفة القتل. إن استخدام الذكاء الصناعي في توجيه الطائرات المسيرة، وتصنيف الأهداف، وتحديد من يُسمح له بالحياة ومن يُدرج في قوائم الإبادة، يكشف عن مستقبل مرعب يُدار فيه القتل ببرمجيات لا تعرف الرحمة، ولا تخضع للمساءلة. هنا، لا نقف أمام مجرد تطور تكنولوجي، بل أمام انقلاب في منظومة العدالة، تُنتهك فيه قوانين الحرب، وتُخرق المبادئ الأساسية لحقوق الإنسان تحت ستار "الابتكار والتطور الأمني".
لقد بات واضحاً أن الذكاء الصناعي حين يُنتزع من سياقه الأخلاقي، ويتحوّل إلى أداة بيد قوى استعمارية، فإنه لا يُنتج سوى مزيدٍ من التجريد واللاإنسانية، حيث يُختزل البشر في معطيات رقمية، وتُستباح أجسادهم وفق خوارزميات صمّاء. في قطاع غزة، لا تُرتكب المجازر عشوائياً، بل تُبرمج وتُنفذ بدقة حسابية، مما يجعل من كل "هدف" قصة إنسانية تُمحى بزرّ واحد، دون محاسبة أو ندم.
وفي المقابل، فإن المقاومة لم تعد محصورة بالسلاح، بل صارت أيضاً مقاومة معرفية، إعلامية، وقانونية. لا بد من كشف الوجه المظلم للتقنية، وتحويل الألم إلى شهادة، والدم إلى دليل، والصورة إلى وثيقة تدين جيلاً كاملاً من صانعي الخوارزميات حين استُخدمت أدواتهم لقتل بشر لا يملكون رفاهية الاختفاء من الكاميرات. فإذا كان الذكاء اصطناعياً، فالضمير يجب أن يبقى إنسانياً.