مشروع مايفن المستخدم في حرب أمريكا ضد إيران: الذكاء الاصطناعي الذي يعيد تشكيل الحروب… بين التفوق العسكري والأسئلة الأخلاقية

يبرز “مشروع مايفن” كأحد أبرز برامج الذكاء الاصطناعي التابعة لوزارة الدفاع الأميركية (البنتاغون)، حيث يلعب دوراً محورياً في تطوير أساليب الحرب الحديثة، مع ما يحمله ذلك من تساؤلات أخلاقية عميقة حول مستقبل النزاعات المسلحة.
أُطلق المشروع عام 2017 كمبادرة تجريبية تهدف إلى مساعدة المحللين العسكريين في التعامل مع الكم الهائل من البيانات والصور التي تلتقطها الطائرات بدون طيار. ففي السابق، كان المحللون يضطرون لمراجعة كل صورة بدقة لرصد تفاصيل قد تظهر للحظات خاطفة، ما يجعل العملية بطيئة ومعقدة. وجاء “مايفن” ليختصر هذا الجهد عبر تحليل الصور آلياً واستخراج المعلومات الدقيقة بسرعة عالية.
ومع مرور الوقت، تطوّر المشروع بشكل ملحوظ، ليصبح جزءاً أساسياً من منظومة إدارة ساحة المعركة، حيث يسهم في تسريع ما يُعرف بـ”سلسلة القتل” (Kill Chain)، أي الانتقال من مرحلة الرصد إلى التنفيذ العسكري. ويعتمد النظام على دمج بيانات متعددة المصادر، تشمل صور الأقمار الصناعية، وأجهزة الاستشعار، والمعلومات الاستخبارية، ليكوّن صورة شاملة وفورية عن الوضع الميداني.
ويقوم “مايفن” بتحليل هذه البيانات بسرعة فائقة، ما يمكّن القيادات العسكرية من تحديد الأهداف واختيار أفضل سيناريوهات التنفيذ. كما أتاح تطور الذكاء الاصطناعي التوليدي إمكانية التفاعل مع النظام باستخدام اللغة الطبيعية، ما وسّع دائرة استخدامه لتشمل غير المتخصصين تقنياً.
ورغم هذا التقدم، أثار المشروع جدلاً واسعاً، خاصة بعد انسحاب شركة “غوغل” من التعاون فيه عام 2018، إثر احتجاجات داخلية من موظفيها رفضوا استخدام تقنيات الذكاء الاصطناعي في التطبيقات العسكرية الهجومية. وفي المقابل، دخلت شركات أخرى على خط المنافسة، مثل “بالانتير” التي أصبحت المزود الرئيسي للتقنيات الأساسية للمشروع، إلى جانب اهتمام متزايد من شركات كبرى أخرى في هذا المجال.
اليوم، يُنظر إلى “مشروع مايفن” كرمز لتحول استراتيجي في طبيعة الحروب، حيث تتقاطع التكنولوجيا مع القرار العسكري بشكل غير مسبوق. وبينما يعزز هذا التحول من كفاءة العمليات وسرعتها، فإنه يفتح الباب أمام تحديات أخلاقية معقدة تتعلق بحدود استخدام الذكاء الاصطناعي في اتخاذ قرارات قد تكون مصيرية.
