عربي
في العدوان الأميركي والإسرائيلي على إيران، تتسارع وتيرة عمل الاستخبارات العسكرية، وتحديد وقصف الأهداف من خلال الاستعانة بروبوتات الذكاء الاصطناعي. وما يُستخدم هو نسخ عسكرية من الروبوتات نفسها التي يستعملها الناس العاديون المدنيون في حياتهم اليومية والمهنية.
يستخدم الجيش الأميركي الذكاء الاصطناعي للدعم اللوجستي والمكتبي، وجمع المعلومات الاستخبارية وتحليلها، ودعم اتخاذ القرارات في ساحة المعركة. يستخدم جيش الاحتلال الإسرائيلي أنظمة الذكاء الاصطناعي نفسها التي لجأ إليها بهدف قتل الفلسطينيين في قطاع غزة. وهي استخدامات تثير قلقاً وتساؤلات أخلاقية بين الباحثين والناشطين والمهتمين، خصوصاً في غياب، أو عرقلة، القوانين التي تضبط استعمال الأسلحة المدعومة بالذكاء الاصطناعي في الحروب الحالية والمستقبلية.
الذكاء الاصطناعي الأميركي في ساحة المعركة
وفق صحيفة واشنطن بوست، يولد نظام مافن الذكي التابع للجيش الأميركي، وقد بنته شركة بالانتير لاستخراج البيانات، معلومات كمية ضخمة من البيانات السرية من الأقمار الاصطناعية والمراقبة، وغيرها من المعلومات الاستخبارية، ما يساعد في توفير الاستهداف في الوقت الفعلي وتحديد أولويات الأهداف للعمليات العسكرية في إيران.
وقَرَن الجيش الأميركي روبوت كلود من شركة أنثروبيك مع "مافن" لصنع أداة تستخدمها معظم قطاعات الجيش بصفة يومية. وبحسب "واشنطن بوست"، أثناء التخطيط للعدوان على إيران، اقترحت الأداة مئات الأهداف، وحدّدت إحداثيات مواقعها بدقة، ورتبتها حسب أهميتها. هذا سرّع من وتيرة العدوان، وقلّل قدرة إيران على الرد، وحوّل التخطيط للمعركة الذي يستغرق أسابيع إلى عمليات فورية. وذكرت صحيفة تايمز اللندنية أن تحديد الأهداف خلال الغزو الأميركي للعراق تطلب وحدة استخبارية قوامها ألفا جندي، أما في الحرب الحالية في إيران، فقد تطلبت المهمة نفسها 20 جندياً فقط.
في أغسطس/آب 2023، كشفت نائبة وزير الدفاع الأميركي، كاثلين هيكس، النقاب عن برنامج ريبليكيتور التابع للبنتاغون، الذي ينشر آلاف الطائرات المسيّرة والسفن والمركبات ذاتية التشغيل، وهي تعمل مستقلّةً من دون تحكم بشري مباشر. ومن المرجح أن بعضها يشارك في العدوان على إيران، إذ ذكرت صحيفة يديعوت أحرنوت أن أميركا نشرت في الشرق الأوسط وحدة تشغل أسراباً من طائرات "لوكاس" المسيّرة، التي تعمل مستقلةً تماماً، وبإمكانها التواصل فيما بينها جواً، وتقسيم الأهداف، وتنفيذ هجمات انتحارية على أنظمة الرادار الإيرانية من دون توجيه من الأرض.
الذكاء الاصطناعي الإسرائيلي حاضر أيضاً
الولايات المتحدة ليست وحدها من يستخدم الذكاء الاصطناعي في العدوان. أوردت "يديعوت أحرنوت" أن إسرائيل استخدمت أنظمة ذكاء اصطناعي تُعرف باسم "حبسورا" و"لافندر"، وهي ذات الأنظمة التي استخدمت لقصف الفلسطينيين في قطاع غزة. ووفقاً لتحقيق أجرته مجلة +972 الإسرائيلية، يُصدر نظام "حبسورا" توصيات تلقائية لاستهداف المباني والمنشآت، مثل المواقع النووية ومنشآت النفط ومقرات الحرس الثوري.
ويعالج النظام صور الأقمار الاصطناعية وبيانات الاتصالات والمعلومات الاستخباراتية البشرية المُجَمّعة من آلاف المصادر، ويتحقق منها، لتحديد المباني والمواقع التي تستخدمها العناصر المسلحة. يركز نظام "لافندر" على الأفراد، فهو عبارة عن قاعدة بيانات تعتمد على الذكاء الاصطناعي، تمسح وتعالج كميات هائلة من بيانات المراقبة، بما في ذلك العلاقات الاجتماعية وسجل المواقع، لتحديد الأهداف المحتملة.
ووفق +972، ساعدت أنظمة الذكاء الاصطناعي إسرائيل أيضاً في تحليل شبكات الاتصالات الخلوية والرقمية لكبار قادة إيران، ما أدى إلى اغتيال المرشد الإيراني الأعلى، علي خامنئي، وعشرات المسؤولين الإيرانيين في قلب طهران. كما أن الحرب على إيران هي الأولى التي تشارك فيها شعبة الذكاء الاصطناعي الجديدة في الجيش الإسرائيلي، التي تُعرف باسم "بينا"، وتأسست قبل بضعة أشهر فقط، وتجمع معظم الوحدات العسكرية التي كانت تعمل سابقاً في الميدان.
قلق وتساؤلات أخلاقية
أعرب باحثون عن قلقهم البالغ إزاء الاستخدامات السلبية وغير الأخلاقية المحتملة للذكاء الاصطناعي. ويُستَخدَم "كلود" في الحرب على إيران بالرغم من إعلان الرئيس الأميركي، دونالد ترامب، قطع العلاقات مع "أنثروبيك" قبل ساعات من بدء العدوان. وجاء هذا الطلاق إثر خلاف على استخدام "كلود" في يناير/كانون الثاني الماضي لاختطاف رئيس فنزويلا، نيكولاس مادورو، إذ اعترضت الشركة على الخطوة، استناداً إلى شروط استخدامها التي تمنع توظيف تقنيتها لأغراض عنيفة، أو لتطوير أسلحة أو للمراقبة.
ويعمل موظفو "غوغل" و"أوبن إيه آي" حالياً على توزيع عريضة تدعو قادة الشركتين إلى عدم السماح باستخدام نماذج الذكاء الاصطناعي الخاصة بهما في المراقبة الجماعية المحلية أو في قتل الأفراد آلياً من دون إشراف بشري. وتشترط القوانين الإنسانية الحالية أن تكون هذه الأسلحة قادرة على التمييز بين الأهداف العسكرية والمدنية.
في هذا السياق، قادت عالِمة السياسة في الجامعة الوطنية الأسترالية، توني إرسكين، مشروعاً يستشرف الاستخدامات المستقبلية للذكاء الاصطناعي في الحروب، وسلّط تقرير المشروع الضوء على خطر استبدال الحكم البشري بالذكاء الاصطناعي، ما قد يؤدي عن غير قصد إلى تصعيد النزاعات.
يقول التقرير إن أنظمة الأسلحة ذاتية التشغيل بالكامل، من دون تدخل بشري، "غير مقبولة قانونياً ويجب حظرها دولياً". وتنقل مجلة نيتشر عن عالِم السياسة في جامعة بنسلفانيا، مايكل هورويتز، أن الأسلحة ذاتية التشغيل بالكامل، التي تعمل بتقنية الذكاء الاصطناعي، من دون إشراف بشري، غير موثوقة حالياً ولا تتوافق مع القوانين الدولية.
وتُبذل جهود حثيثة على أعلى المستويات للتوصل إلى اتفاق دولي بشأن الاستخدامات القانونية والأخلاقية للذكاء الاصطناعي في الحروب، إلا أن هذه المحاولات تتعثر بسبب عدم تفاعل الجهات الفاعلة الرئيسية. تنقل "نيتشر" عن عالِم الجغرافيا السياسية في جامعة نيوكاسل، كريغ جونز، أن "الدول التي لديها برامج حربية نشطة تعتمد على الذكاء الاصطناعي، بما فيها الولايات المتحدة وإسرائيل والصين، تعارض عموماً أي تنظيم إضافي". وحذّر جونز من أن "الفشل الحالي في تنظيم استخدام الذكاء الاصطناعي في الحروب، أو تعليق استخدامه لحين التوصل إلى اتفاق بشأن الاستخدام القانوني، يُشير إلى احتمال وشيك لانتشار الذكاء الاصطناعي في الحروب".
