العلوم العسكرية

مشروع “مايفن”: حرب الخوارزميات بين الذكاء الاصطناعي والمساءلة الأخلاقية

Project Maven

يشكّل مشروع مايفن (Project Maven) نموذجًا متقدمًا من تزاوج الذكاء الاصطناعي مع العمليات العسكرية، وهو مبادرة أطلقتها وزارة الدفاع الأمريكية (البنتاغون) عام 2017 بهدف تسخير الخوارزميات المتقدمة والتعلم الآلي لتحليل كميات ضخمة من بيانات الفيديو المجمعة عبر الطائرات دون طيار، وتعزيز دقة الضربات العسكرية. لكن المشروع أثار جدلاً أخلاقيًا عالميًا، خصوصًا بعد مشاركة شركات تقنية عملاقة، على رأسها جوجل.

  • أهداف المشروع وسياقه التكنولوجي

انطلق المشروع رسميًا بعد توقيع نائب سكرتير الدفاع الأمريكي على مذكرة بتاريخ 26 أبريل 2017، تضمنت تبني تكنولوجيا الذكاء الاصطناعي لأغراض عسكرية. تمحور المشروع حول تطوير أدوات ذكية لتحليل فيديوهات الاستطلاع، وتحسين قدرة الطائرات على رصد الأفراد والأنماط السلوكية، بما يسمح باتخاذ قرارات أسرع وأكثر دقة في ميادين القتال.

وقد شكل هذا التحول نقطة انطلاق لما يعرف بـ”الحرب المعرفية“، حيث لم تعد المعادلة ترتكز فقط على التفوق المادي بل على قوة المعالجة والتحليل، والقدرة على استخلاص أنماط سلوكية من البيانات الضخمة.

ساهمت شركات تقنية كبرى مثل مايكروسوفت وأمازون في تقديم بنى تحتية سحابية متطورة لدعم خوارزميات المشروع، لكن مشاركة جوجل تحديدًا أثارت جدلاً عاصفًا.

  • أزمة جوجل: التكنولوجيا في مواجهة الضمير الأخلاقي

في فبراير 2018، وقع أكثر من 3100 موظف في شركة جوجل عريضة احتجاج على مشاركة الشركة في مشروع مافين، معتبرين أن استخدام تقنيات الذكاء الاصطناعي في الأغراض العسكرية يخالف القيم التي تأسست عليها الشركة. وجاء في الرسالة الموجهة إلى المدير التنفيذي ساندر بيتشاي أن “جوجل لا ينبغي أن تكون جزءًا من صناعة الحرب”.

بلغ الخلاف ذروته عندما قدم مهندسون كبار استقالاتهم احتجاجًا على استمرار التعاون مع البنتاغون. وقد أجبرت الأزمة إدارة جوجل على عدم تجديد العقد بعد نهاية عام 2019، وفق ما أعلنته دايان غرين، رئيسة قسم Google Cloud آنذاك.

  • أهمية المشروع من منظور عسكري

تكمن أهمية مايفن في التعامل مع “الفيض المعلوماتي”، إذ تُنتج الطائرات الأمريكية دون طيار أكثر من 1100 ساعة فيديو يوميًا. يتعذر على المحللين البشر معالجة هذا الكم من البيانات في الوقت الحقيقي، ما يجعل الحاجة إلى أدوات ذكاء اصطناعي قادرة على التصنيف والتنبؤ أمرًا بالغ الحيوية.

تسعى خوارزميات مايفن إلى تسريع التعرف على الأشخاص، المركبات، والأنماط المهددة للأمن، لتقديم بيانات استخباراتية أكثر دقة تساعد في تنفيذ عمليات “القتل المستهدف” دون الحاجة إلى تدخل بشري مباشر في كل مرة.

  • تحليل نقدي: أين تقف الأخلاق؟

تُعد أزمة جوجل نموذجًا على الصراع القائم بين القيم الأخلاقية للابتكار التكنولوجي ومصالح الأمن القومي. فقد كشفت القضية عن مدى هشاشة التوازن بين دعم التطور العلمي، والامتثال للضوابط الأخلاقية، خاصة في ما يتعلق بقضايا الحياة والموت.

يرى النقاد أن إشراك الذكاء الاصطناعي في اتخاذ قرارات القتل قد يفقد الحروب بعدها الإنساني، في حين يعتبر مؤيدو المشروع أن الذكاء الاصطناعي قادر على تقليل الضحايا الأبرياء وزيادة الدقة العملياتية.

  • خلاصة:

يعكس مشروع مايفن الوجه الجديد للحروب في عصر الذكاء الاصطناعي، حيث لم يعد السلاح مجرد آلة، بل أداة تحليل ومعالجة. ويُظهر الصراع حوله أننا نعيش حقبة جديدة تتطلب أطرًا قانونية وأخلاقية شاملة للتعامل مع الاستخدام العسكري للتقنيات الذكية.

مراجع:

  1. تقارير The New York Times حول أزمة جوجل
    https://www.nytimes.com/2018/04/04/technology/google-letter-ceo-pentagon-project.html
  2. MIT Technology Review – مستقبل الحروب المعرفية
    https://www.technologyreview.com/2018/07/05/141186/ai-in-warfare-project-maven/

بالعربية

بالعربية: منصة عربية غير حكومية؛ مُتخصصة في الدراسات والأبحاث الأكاديمية في العلوم الإنسانية والاجتماعية.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

أنت تستخدم إضافة Adblock

الإعلانات هي مصدر التمويل الوحيد للمنصة يرجى تعطيل كابح الإعلانات لمشاهدة المحتوى