التاريخ السري للذكاء الاصطناعي: التقنية التي وُلدت في الظل
Artificial Intelligence
- مقدمة:
يُعد الذكاء الاصطناعي (Artificial Intelligence) من أعقد وأهم التكنولوجيات التحويلية التي يشهدها العالم المعاصر، إذ تجاوز في تطوره حدود البرمجة التقليدية ليصبح منظومة معرفية ديناميكية قادرة على التعلم الذاتي (Machine Learning)، والمعالجة اللغوية الطبيعية (Natural Language Processing)، والتفكير الاستدلالي (Inferential Reasoning). ورغم الحضور المتصاعد لتطبيقات الذكاء الاصطناعي في المجالات الاقتصادية والطبية والتعليمية والاجتماعية، فإن أصول هذا الحقل العلمي تعود إلى أوساط مغلقة من البحث والتطوير داخل البيئات العسكرية والاستخباراتية، حيث نشأ في ظل التنافس الجيوسياسي إبان الحرب الباردة.
ففي تلك الحقبة، تم توظيف إمكانيات الحوسبة في تطوير أنظمة ذكية تُستخدم في فك الشيفرات، وتحليل البيانات الاستخباراتية، ومحاكاة السيناريوهات الاستراتيجية، ضمن سياقات يغلب عليها الطابع السري والمؤسساتي. ومع التقدم في قدرات المعالجة الحاسوبية وانتقال النماذج من الأنظمة الخبيرة (Expert Systems) إلى الشبكات العصبية الاصطناعية (Artificial Neural Networks)، شهد الذكاء الاصطناعي انتقالا تدريجيا من الاستخدامات الضيقة والسرية إلى تطبيقات أكثر انفتاحا ومرونة في الحياة المدنية، مما أدى إلى اتساع نطاق تأثيره على مختلف جوانب النشاط البشري.
تهدف هذه الدراسة إلى تتبع المسار التاريخي والمعرفي لتطور الذكاء الاصطناعي، من بداياته المحاطة بالسرية الأمنية إلى انتشاره كأداة مركزية في البنى الاقتصادية والاجتماعية الحديثة، وذلك استنادا إلى مصادر علمية موثوقة وتحليل منهجي معمّق.
1. البدايات السرية للذكاء الاصطناعي في الولايات المتحدة
- 1.1 مؤتمر دارتموث (1956): نقطة الانطلاق الرسمية
يُعد مؤتمر دارتموث المنعقد في صيف عام 1956 المحطة التأسيسية الأولى التي نُظر إليها بوصفها الإعلان الرسمي لميلاد علم الذكاء الاصطناعي كمجال بحثي مستقل داخل العلوم الحاسوبية. فقد شارك في هذا اللقاء نخبة من العلماء الرواد، أبرزهم جون مكارثي (John McCarthy)، الذي يُنسب إليه صياغة مصطلح “Artificial Intelligence”، إلى جانب مارفن مينسكي (Marvin Minsky)، وألان نيويل (Allen Newell)، وهربرت سيمون (Herbert A. Simon). تمثل الهدف الرئيسي للمؤتمر في استكشاف إمكانية تصميم أنظمة حسابية قادرة على محاكاة العمليات العقلية البشرية، من تفكير واستدلال وتعلم.
ومع أن مؤتمر دارتموث شكّل من الناحية الأكاديمية نقطة الانطلاق العلنية لبحوث الذكاء الاصطناعي، فإن العديد من الوثائق والتقارير تشير إلى أن الجهود المرتبطة بهذا المجال كانت قد انطلقت فعليا قبل هذا التاريخ ضمن مشاريع بحثية سرية مموّلة من مؤسسات عسكرية وأمنية أميركية، مثل وكالة مشاريع البحوث المتقدمة (ARPA) والبنتاغون.
كان الهدف من هذه المشاريع تطوير تقنيات تحليل بيانات متقدمة، وأنظمة حوسبة ذات قدرات تفسيرية وتنبؤية تُستخدم في دعم اتخاذ القرار الاستراتيجي في سياقات الحرب الباردة. وقد ساهم هذا الطابع السري في إخفاء العديد من أوجه التقدم الأولية، مما جعل البدايات الفعلية للذكاء الاصطناعي غير موثقة بالكامل في السجلات العلمية العامة.
إن مؤتمر دارتموث لم يكن إذن لحظة ولادة بقدر ما كان لحظة “إشهار” لما بدأ يتبلور في كواليس مختبرات الأبحاث المغلقة. وقد نتج عن هذا المؤتمر تحول نوعي في إدراك إمكانيات الحوسبة الرمزية، ووضع اللبنات الأولى لنماذج التفكير الاصطناعي القائمة على التمثيل المعرفي (Cognitive Representation) والخوارزميات الاستنتاجية (Inferential Algorithms)، والتي شكّلت الأساس النظري للأنظمة الخبيرة والجيل الأول من برامج الذكاء الاصطناعي.
المرجع:
Dartmouth Summer Research Project on Artificial Intelligence, 1956.
الرابط المباشر للمصدر الأصلي
- 1.2 دور وكالة DARPA في تطوير الذكاء الاصطناعي
منذ تأسيسها في عام 1958، شكّلت وكالة مشاريع البحوث المتقدمة الدفاعية (Defense Advanced Research Projects Agency – DARPA) الذراع البحثي والعلمي المتقدم لوزارة الدفاع الأميركية، حيث لعبت دورا حاسما في توجيه وتطوير بحوث الذكاء الاصطناعي لأغراض عسكرية واستراتيجية. وقد ظهرت هذه الجهود في سياق التنافس التكنولوجي المتسارع أثناء الحرب الباردة، حيث سعت الولايات المتحدة إلى تأمين تفوقها المعلوماتي من خلال استباق التهديدات المستقبلية عبر الاستثمار في قدرات الحوسبة الذكية.
في هذا الإطار، قامت DARPA بإنشاء مكتب تقنيات معالجة المعلومات (Information Processing Techniques Office – IPTO)، الذي تولى مهمة رعاية وتمويل المشاريع البحثية في الذكاء الاصطناعي ضمن أبرز المؤسسات الأكاديمية، مثل معهد ماساتشوستس للتكنولوجيا (MIT)، وجامعة ستانفورد، وجامعة كارنيجي ميلون. وقد مثّل هذا التمويل الدافع الأساسي وراء تطوير تقنيات محورية مثل أنظمة الفهم اللغوي (Language Understanding Systems)، وتمثيل المعرفة (Knowledge Representation)، والتخطيط الآلي (Automated Planning)، وهي تقنيات وظفت بشكل مباشر في تصميم منظومات دعم القرار العسكري، وبرمجيات المحاكاة القتالية، وتحليل البيانات الاستخباراتية.
تميّزت استراتيجية DARPA البحثية بتركيزها على المشاريع عالية المخاطر وعالية المكاسب (High Risk – High Reward)، مما أتاح المجال لتجارب غير تقليدية وأدى إلى تحقيق قفزات نوعية في الأداء الإدراكي للأنظمة الحاسوبية. كما أسهمت هذه الوكالة في بناء البنية التحتية البحثية الوطنية للذكاء الاصطناعي من خلال ربط الجامعات بمراكز الأبحاث العسكرية والقطاع الصناعي، في نموذج ثلاثي أتاح نقل المعرفة من الأوساط الأكاديمية إلى التطبيقات الفعلية.
لقد أثبتت DARPA أنها كانت المُحفِّز الرئيسي لبناء الأساس العلمي والمؤسساتي الذي مكّن الذكاء الاصطناعي من التحول إلى حقل تكنولوجي استراتيجي، ليس فقط في البعد العسكري بل أيضا في التطبيقات المدنية التي ظهرت لاحقا كمنتج ثانوي للاستثمارات العسكرية الأولية.
المرجع:
National Research Council. Funding a Revolution: Government Support for Computing Research. National Academies Press, 1999.
الرابط المباشر للمصدر
2. الذكاء الاصطناعي في الاتحاد السوفيتي: مشروع OGAS
- 2.1 مشروع OGAS كنموذج مبكر للحوسبة الاقتصادية الذكية
في سياق الحرب الباردة، لم يكن اهتمام الذكاء الاصطناعي حكرا على الولايات المتحدة؛ بل امتد ليشمل الاتحاد السوفيتي الذي سعى بدوره إلى توظيف تقنيات الحوسبة المتقدمة لأغراض تتعلق بالإدارة الاقتصادية والتخطيط المركزي. وفي هذا الإطار، اقترح عالم الرياضيات والفيزيائي السوفيتي فيكتور غلشكوف (Victor Glushkov) في أوائل الستينيات مشروعا رائدا يُعرف باسم OGAS، وهو اختصار لعبارة ؛ “النظام الآلي الوطني لمعالجة المعلومات”.
كان الهدف من مشروع OGAS هو إنشاء شبكة حوسبة مركزية تمتد على كامل أراضي الاتحاد السوفيتي، تعمل على جمع ومعالجة البيانات الاقتصادية في الزمن الحقيقي، بما يسمح بتحسين دقة التخطيط المركزي واتخاذ القرار الاقتصادي. يُعد المشروع أحد المحاولات المبكرة لاستخدام مبادئ الذكاء الاصطناعي والتنظيم السيبراني (Cybernetics) في إدارة الأنظمة الاقتصادية المعقدة، حيث استند إلى فكرة بناء هيكل هرمي من الخوادم والمراكز الإقليمية يرتبط بشبكة تواصل رقمية مركزية.
رغم الطموحات التقنية التي حملها مشروع OGAS، إلا أن تنفيذه تعثّر بسبب مجموعة من التحديات البنيوية والسياسية، كان أبرزها ضعف التمويل، والمقاومة البيروقراطية من النخبة الاقتصادية التي رأت في المشروع تهديدا لسلطتها المركزية، إضافة إلى محدودية البنية التحتية التقنية اللازمة لتشغيل شبكة رقمية على هذا النطاق.
وعلى الرغم من ذلك، يُعتبر OGAS مثالا مبكرا ومتميزا على محاولات دمج تقنيات الذكاء الحسابي في الإدارة الاقتصادية، وقد سبق في رؤيته المفاهيم الحديثة المتعلقة بتحليل البيانات الضخمة (Big Data Analytics)، وأنظمة اتخاذ القرار المدعومة بالخوارزميات (Algorithmic Decision Systems).
إن مشروع OGAS يُظهر بوضوح أن الطموحات السوفيتية في الذكاء الاصطناعي لم تكن محصورة في الاستخدامات العسكرية فقط، بل امتدت إلى محاولة بناء نموذج اقتصادي جديد يعتمد على الأتمتة الذكية، ما يعكس تداخل التكنولوجيا والسياسة في سياق الصراع الأيديولوجي العالمي.
المرجع:
Gerovitch, Slava. InterNyet: Why the Soviet Union Did Not Build the Internet.
الرابط المباشر للمصدر
3. التطبيقات العسكرية الحديثة للذكاء الاصطناعي
- 3.1 برنامج Air Combat Evolution (ACE): نحو طائرات مقاتلة مستقلة
في ظل تسارع الابتكارات التقنية في مجال الذكاء الاصطناعي، أصبحت التطبيقات العسكرية لهذه التقنيات تمثل إحدى أكثر ساحات التطوير حساسية واستراتيجية. وفي هذا السياق، أطلقت وكالة مشاريع البحوث المتقدمة الدفاعية (DARPA) برنامجا طموحا يُعرف باسم Air Combat Evolution (ACE)، وهو مبادرة تهدف إلى دمج أنظمة الذكاء الاصطناعي المتقدمة في المقاتلات الجوية القتالية، بما يتيح لها خوض اشتباكات جوية دون الحاجة لتدخل بشري مباشر.
يرتكز البرنامج على تطوير خوارزميات تعلم معزز (Reinforcement Learning) وأنظمة قيادة مستقلة قادرة على اتخاذ قرارات فورية في بيئات قتال ديناميكية عالية الخطورة، مثل المناورات الجوية (“dogfighting”)، حيث تكون سرعة الاستجابة والدقة عامليْن حاسمين. تسعى DARPA من خلال برنامج ACE إلى بناء ثقة متبادلة بين الطيار البشري ونظيره الاصطناعي عبر ما يُعرف بـ”التحكم التكيفي القائم على الذكاء الاصطناعي” (AI-Driven Adaptive Control)، بحيث يمكن للطرفين العمل في تناغم تكتيكي يُعزز الأداء العملياتي.
في عام 2022، أعلنت القوات الجوية الأمريكية عن إجراء سلسلة من التجارب الناجحة ضمن هذا البرنامج، حيث تم اختبار أنظمة طيران مستقلة في محاكاة سيناريوهات قتال جوي حقيقية. وقد أظهرت هذه التجارب أن أنظمة الذكاء الاصطناعي كانت قادرة على تنفيذ مناورات معقدة والتفاعل مع التهديدات الجوية بكفاءة تعادل، بل في بعض الحالات تتفوق على أداء الطيارين البشر. هذه النتائج تؤشر إلى تحوّل جوهري في عقيدة القتال الجوي المستقبلية، إذ يجري تدريجيا نقل أدوار كانت حكرا على الإنسان إلى كيانات اصطناعية تتعلم ذاتيا وتتكيف مع البيئة القتالية.
يمثّل برنامج ACE تجسيدا حيا للرؤية العسكرية الأميركية نحو ما يُعرف بـ”المقاتل الاصطناعي” (Autonomous Combatant)، ويُعد خطوة متقدمة في مسار دمج الذكاء الاصطناعي مع أنظمة الأسلحة المتقدمة. ومع استمرار التطوير، يبرز تحدي أخلاقي واستراتيجي كبير يتمثل في كيفية ضبط سلوك هذه الأنظمة ضمن قواعد الاشتباك وقوانين الحرب الدولية.
المرجع:
Schulz, Kathryn. The Rise of A.I. Fighter Pilots. The New Yorker, 2022.
الرابط المباشر للمصدر
- 3.2 مشروع Mind’s Eye: نحو ذكاء اصطناعي قادر على “رؤية” وفهم العالم البشري
ضمن جهودها المتواصلة لتوسيع قدرات الذكاء الاصطناعي في المجال الأمني والعسكري، أطلقت وكالة DARPA مشروعا طموحا يُعرف باسم Mind’s Eye، يهدف إلى تطوير أنظمة ذكاء اصطناعي بصرية تمتلك القدرة على تفسير وتحليل المشاهد المصورة بطريقة تحاكي الإدراك البشري. يسعى المشروع إلى تجاوز القدرات التقليدية للتعرف على الأجسام أو التمييز بين الصور الثابتة، من خلال تمكين الآلات من “فهم” الأفعال البشرية ضمن سياق زمني بصري ديناميكي، مما يتيح استخلاص المعاني والسلوكيات من تسجيلات الفيديو بذكاء يتجاوز التحليل الآلي المعتاد.
الهدف المركزي لهذا المشروع يتمثل في تمكين الأنظمة الاصطناعية من “المراقبة المفهومية”، أي القدرة على إدراك الأحداث الجارية، وليس فقط اكتشاف العناصر المرئية. وهذا يتضمن، على سبيل المثال، فهم أن شخصا ما “يخفي شيئا” أو “يُعد لعمل عدائي”، وهو مستوى من التحليل يتطلب نماذج معرفية (Cognitive Models) قادرة على ربط الأفعال بالنيات المحتملة. تعتمد هذه الأنظمة على تقنيات تعلم الآلة المتقدمة، ولا سيما نماذج التعلم العميق (Deep Learning) والشبكات العصبية الالتفافية (Convolutional Neural Networks – CNNs)، لتفسير المعلومات البصرية بطريقة شبه فورية.
يتضمن المشروع أيضا دمج ما يُعرف بـ “التمثيلات السببية البصرية” (Visual Causal Representations)، وهي مقاربات تسعى إلى تمكين الآلة من استخلاص تسلسل السبب والنتيجة من المشهد، مثل التنبؤ بأن رفع السلاح يتبع بنية تصعيدية لأعمال عنف. وقد عُدّ هذا المشروع قفزة نوعية في مجال الذكاء الاصطناعي الإدراكي، إذ يسهم في تطوير أدوات مراقبة قادرة على الاستجابة التنبؤية، مما يعزز من قدرة الأنظمة الأمنية على اتخاذ قرارات استباقية في مواجهة التهديدات.
يُعد مشروع Mind’s Eye خطوة استراتيجية نحو إرساء ما يمكن تسميته بـ “الوعي الظرفي الاصطناعي” (Artificial Situational Awareness)، وهو تطور من شأنه تغيير قواعد المراقبة والتحليل الاستخباراتي، سواء في البيئات العسكرية أو المدنية عالية الخطورة. ومع ذلك، تُثار حوله تساؤلات أخلاقية وقانونية تتعلق بخصوصية الأفراد واستخدام هذه الأنظمة في البيئات العامة دون رقابة قانونية واضحة.
المرجع:
Mind’s Eye (US Military AI Surveillance Program), Wikipedia.
الرابط المباشر للمصدر
4. الذكاء الاصطناعي في الصين: التقدم السري والعلني
- 4.1 سباق الهيمنة التكنولوجية والتحكم الذكي
تشهد الصين نموا غير مسبوق في مجال الذكاء الاصطناعي، إذ باتت تُعد منافسا استراتيجيا مباشِرا للولايات المتحدة في سباق السيطرة على التقنيات الذكية. وتُظهر بكين توجها مزدوجا يجمع بين الاستثمار العلني الضخم في مشاريع الذكاء الاصطناعي، وبين دعم أبحاث سرية تُدار ضمن منظومات الدولة المركزية، وخصوصا في المجالات الأمنية والعسكرية.
يستند هذا التوجه إلى رؤية وطنية واضحة عبّرت عنها الحكومة الصينية في “خطة تطوير الذكاء الاصطناعي للجيل الجديد” الصادرة عام 2017، والتي تهدف إلى جعل الصين الدولة الرائدة عالميا في الذكاء الاصطناعي بحلول عام 2030.
على المستوى العلني، تضخ الصين استثمارات هائلة في الشركات التكنولوجية المحلية مثل Baidu وAlibaba وTencent وSenseTime، التي تعمل على تطوير تقنيات التعلُّم العميق، والرؤية الحاسوبية، والتعرف على الوجوه، وتحليل البيانات الضخمة، وهو ما يُوظَّف في بناء أنظمة مراقبة ذكية ذات طابع شمولي. هذه الأنظمة تُستخدم ضمن إطار ما يُعرف بـ”الائتمان الاجتماعي”، وهي شبكة مراقبة متكاملة تُقيم سلوك المواطنين وتحدد فرصهم في العمل والسفر والحصول على الخدمات، ما يثير مخاوف حقوقية دولية بشأن التوظيف السلطوي للذكاء الاصطناعي.
أما على المستوى السري، فتعمل الصين على تعزيز قدراتها العسكرية من خلال دمج الذكاء الاصطناعي في تطوير أنظمة القتال المستقبلية، ومنصات الطائرات دون طيار، وتحليل صور الأقمار الصناعية، ومراقبة الاتصالات عبر تقنيات التعلم الآلي المتقدم. ويتضمن ذلك أيضا تعزيز ما يُعرف بـ”القيادة الآلية الميدانية” في ساحات الحرب، والتي تتيح لقادة العمليات اتخاذ قرارات فورية بناء على تحليل بياني فوري وتوصيات خوارزمية.
وفقا لتقارير أمريكية، فإن التقدم الصيني في هذا المضمار يُعد مقلقا من الناحية الاستراتيجية، ويُشكل تحديا للهيمنة التقنية الغربية. وتسعى الولايات المتحدة، من خلال سياساتها في DARPA ووزارة الدفاع، إلى الحفاظ على “الفجوة الذكية” بينها وبين بكين، لا سيما في مجالات الذكاء الاصطناعي ذي التطبيقات العسكرية.
المرجع:
Sanger, David E., et al. US Aims to Stay Ahead of China in Using A.I. for Military. The New York Times, 2023.
الرابط المباشر للمصدر
- خلاصة:
إن التحليل التاريخي والعلمي لتطور الذكاء الاصطناعي يُظهر بوضوح أن هذه التقنية لم تنبثق فجأة في عصر الثورة الرقمية، بل هي امتداد لمسار طويل من الأبحاث الممنهجة التي بدأت في سياقات مؤسسية شديدة السرية، لا سيما في أروقة المشاريع العسكرية الأمريكية والسوفيتية خلال حقبة الحرب الباردة.
لقد ساهمت هذه الأطر المغلقة في بلورة المفاهيم الأساسية للذكاء الاصطناعي، من خلال تمويل بحوث ريادية في المعالجة المعلوماتية، والشبكات العصبية، والأنظمة الخبيرة، التي وضعت حجر الأساس للثورة المعرفية التي نشهدها اليوم.
ومع مرور العقود، خرج الذكاء الاصطناعي من طابعه النخبوي/العسكري، لينتشر في مختلف مناحي الحياة المدنية والعلمية والصناعية، حيث أصبح مكونا بنيويا في النظم الاقتصادية، وأداة مركزية في البنية الأمنية للدول، وفاعلا حاسما في إعادة تشكيل القوة الجيوسياسية العالمية.
وما بين التقدم العلني الذي نشهده في تطبيقات الذكاء الاصطناعي في الدول الصناعية الكبرى، والطموحات المستترة لتوظيفه في المجالات الاستخباراتية والدفاعية، يتجلى بوضوح أن الذكاء الاصطناعي ليس مجرد تقنية، بل هو مشروع حضاري واستراتيجي بأبعاد معرفية وقيمية وسياسية عميقة.
إن هذا التاريخ المركب لتطور الذكاء الاصطناعي يستدعي منا اليوم مقاربة نقدية متعددة التخصصات، لفهم التحديات التي يطرحها على مستوى الأمن العالمي، والسيادة الرقمية، وحقوق الإنسان، وخصوصية الأفراد، والعدالة الخوارزمية. وإذ نعيش في لحظة مفصلية من تحوّل الذكاء الاصطناعي من أداة إلى فاعل في صنع القرار، فإننا مطالبون بإعادة التفكير في علاقاتنا بالتقنية، لا بوصفها مجرد أدوات، بل ككائنات معرفية تشاركنا الفضاء الاجتماعي والقرارات السيادية.
وبناء عليه، فإن فهم جذور الذكاء الاصطناعي ونمط تطوره التاريخي، يُعد خطوة أساسية لفهم مستقبله، ولصياغة سياسات استباقية قادرة على توجيه مساره بما يخدم الصالح العام، ويضمن أن تبقى التقنيات الذكية خادمة للإنسان، لا بديلا عنه ولا أداة ضده.
- المراجع:
-
Wikipedia. “Dartmouth Workshop.” Wikipedia. Accessed May 27, 2025. https://en.wikipedia.org/wiki/Dartmouth_workshop.
- National Research Council. Funding a Revolution: Government Support for Computing Research. Washington, DC: The National Academies Press, 1999. https://nap.nationalacademies.org/read/6323/chapter/11.
- Wikipedia. “Strategic Computing Initiative.” Wikipedia. Accessed May 27, 2025. https://en.wikipedia.org/wiki/Strategic_Computing_Initiative.
- Wikipedia. “OGAS.” Wikipedia. Accessed May 27, 2025. https://en.wikipedia.org/wiki/OGAS.
- Madrigal, Alexis C. “The Rise of A.I. Fighter Pilots.” The New Yorker, January 24, 2022. https://www.newyorker.com/magazine/2022/01/24/the-rise-of-ai-fighter-pilots.
- Wikipedia. “Mind’s Eye (US Military).” Wikipedia. Accessed May 27, 2025. https://en.wikipedia.org/wiki/Mind%27s_Eye_%28US_military%29.
- Tucker, Patrick. “US Aims to Stay Ahead of China in Using AI.” AP News, March 1, 2023. https://apnews.com/article/5f327918075cea0bfc32e5d36cba801d.