Arab
لم تعد الحروب مجرد ساحات صراع عسكري، بل تحوّلت أيضاً إلى مختبرات مفتوحة لتجريب تقنيات وادي السيليكون وتكريسها. فشركات التكنولوجيا التي راهنت مبكراً على هذا التقاطع تجد نفسها اليوم في موقع المستفيد المباشر، مع توسّع اعتماد الجيوش على أدواتها. في سياق الحرب الجارية ضد إيران، تعتمد وزارة الحرب الأميركية على أنظمة تحليل بيانات متقدمة طوّرتها شركات مثل "أنثروبيك" و"بالانتير"، إلى جانب طائرات مسيّرة وتقنيات مضادة لها تطورها شركات ناشئة. هذا التداخل المتزايد بين التكنولوجيا والعسكرة لا يبدو ظرفياً، بل يشير إلى مسار يتجه نحو تعميق الشراكة التجارية بين القطاعين في الحروب المقبلة.
ولسنوات، واجهت جهود شركات وادي السيليكون في القطاعي العسكري تشكيكاً ومعارضة، خصوصاً أن العوائد التجارية غير واضحة أو فورية، بالإضافة إلى اعتراضات أخلاقية حول استخدام مثل هذه التكنولوجيا المتطورة في القتل. ومع ذلك، أصرّ وادي السيليكون على ضخ مليارات الدولارات في تطوير الطائرات المسيّرة والليزر وغيرها من الأنظمة العسكرية. والآن بدأ رهان وادي السيليكون يؤتي أكله.
عصر تربّح وادي السيليكون
أصدر الرئيس الأميركي دونالد ترامب، خلال العام الماضي، أمراً تنفيذياً يدعو الجيش إلى تحديث نظامه لاقتناء التكنولوجيا ودمج الأدوات الجديدة بوتيرة أسرع. كما خصّص تريليون دولار للدفاع في عام 2026 تشمل التقنيات التي تقدمها شركات التكنولوجيا الحربية. وهذا الشهر، وافق الرئيس التنفيذي لشركة أوبن إيه آي، سام ألتمان، على دمج أنظمة الذكاء الاصطناعي لشركته في الشبكات السرية للبنتاغون، ووقّعت "غوغل" اتفاقية لإدخال ذكائها الاصطناعي إلى وزارة الحرب. كذلك أعلن الجيش الأميركي عن منحه شركة أندوريل للتكنولوجيا الدفاعية عقداً قيمته 20 مليار دولار.
وبحسب صحيفة واشنطن بوست، أعرب مسؤولون في البنتاغون عن رضاهم عن أداء تكنولوجيا وادي السيليكون في العدوان الأميركي الإسرائيلي على إيران. ووفقاً لهم، مثّلت الحرب نقطة تحوّل في إظهار كيفية دمج التكنولوجيا الحديثة مع الأنظمة العسكرية القائمة. ونقلت الصحيفة عن العقيد السابق والرئيس التنفيذي لشركة ريفيل للتكنولوجيا، غاريت سميث، قوله إن "هذه الحرب أظهرت لنا أننا نسير على الطريق الصحيح في تطوير وبيع هذه التقنيات للجيش الأميركي، وأننا استثمرنا في الاتجاه الصحيح". كما أوردت عن الضابط المتقاعد، جاك شاناهان، أن هذه الحرب ستسرّع من تبني المزيد من التقنيات، متوقِّعاً خلال العقد المقبل دمج الأنظمة القديمة والحديثة معاً، إلى جانب تطوير أنظمة ذكاء اصطناعي أكثر قوة.
قلق أخلاقي
لكن إن تراجعت الشكوك حول تحقيق النجاح من الحروب فلا يزال القلق الأخلاقي قائماً. دعا موظفون في "غوغل" و"أوبن إيه آي" قادتهم إلى عدم السماح باستخدام الذكاء الاصطناعي في قتل الأفراد آلياً من دون إشراف بشري. وجاء في تقرير لعالِمة السياسة في الجامعة الوطنية الأسترالية، توني إرسكين، أن أنظمة الأسلحة ذاتية التشغيل بالكامل، من دون تدخل بشري، "غير مقبولة قانونياً ويجب حظرها دولياً".
وحتى بإشراف بشري، يثير استخدام الذكاء الاصطناعي في الحروب مخاوف أخلاقية. في ورقة تحليلية نشرتها اللجنة الدولية للصليب الأحمر، يقول خبير أخلاقيات الذكاء الاصطناعي وتحليل المخاطر، ماتياس كلاوس، إن "دمج أنظمة دعم القرار القائمة على الذكاء الاصطناعي في العمليات العسكرية يبشّر باتخاذ قرارات أكثر كفاءة وسرعة"، لكن مع ذلك، "تطرح هذه الأنظمة تحديات أخلاقية كبيرة يجب معالجتها لضمان استخدامها المسؤول". وينبّه كلاوس إلى أنه "حتى وإن كان الهدف منها مجرد مساعدة صانعي القرار البشريين، فإنها ستؤثر حتماً على قراراتهم من خلال كيفية معالجتها للبيانات، وعرضها للمعلومات، واقتراحها لخيارات العمل".

Related News
رسو أولى سفن أسطول المساعدات لكوبا في هافانا
aawsat
8 minutes ago