مصطفى صلاح
مدير مركز شمس للاستشارات والبحوث الاستراتيجية
شهدت مجالات التسلح العسكري تطورًا كبيرًا من ناحية الكم والنوع نتيجة لتطور تقنيات الذكاء الاصطناعي، وهو ما انعكس على ميدان العمليات فيما يتعلق بآليات ووسائل التخطيط وقواعد الاشتباك، بالإضافة إلى ما أفرزته من مؤشرات جديدة تتعلق بإعادة تصنيف الجيوش وقوتها العسكرية استنادًا على التقدم التقني باعتباره أحد العوامل البارزة في تصنيف قوة الجيوش وقدرتها على تحقيق النصر العسكري في ظل ما يعرف بالحرب الذكية أو رقمنة الحروب والتي يقصد بها تلك الحروب القائمة على استخدام تقنيات الذكاء الاصطناعي في العقيدة والحشد والاستهداف والتقييم.
كما لم تقتصر تأثيرات التطورات التكنولوجية على الصناعات العسكرية وأدواتها، بل امتدت انعكاساتها على اتجاهات العقيدة العسكرية للجيوش وظهور رؤى وتصورات جديدة في استراتيجيات العمليات العسكرية الدفاعية والهجومية، وفي مجال تقييم مستوى الجاهزية العسكرية باعتبارها ركيزة أي عمل عسكري في ظل التغيرات المتوقعة لطبيعة المعارك العسكرية المستقبلية.
وضمن السياق ذاته، يمكن لأنظمة الذكاء الاصطناعي دعم واستبدال الجنود في تنفيذ بعض المهام العسكرية لما لها من قدرة على معالجة المزيد من المعلومات واتخاذ القرارات العسكرية بصورة، وهو ما يمنح الجيوش في نهاية المطاف مزايا كبيرة في مجال الذكاء الاصطناعي تتعلق بتفويض هذه المهام لأنظمة الذكاء الاصطناعي ومساعدة القادة العسكريين في عمليات صنع القرار والتي من المرجح أن تتغير مع تطور التكنولوجيا واستخدامات أنظمة الذكاء الاصطناعي في المجال العسكري.
إن استخدام الذكاء الاصطناعي في التطبيقات العسكرية أصبح أحد الموضوعات البارزة في الدراسات الأكاديمية الأمنية لما لها من تأثيرات على اتجاهات الحرب والسلام في العالم، وفي ضوء ذلك يقدم هذا التحليل مجموعة من الاتجاهات المعرفية والتداعيات المحتملة لمسارات دمج تقنيات الذكاء الاصطناعي في المجال العسكري.
أولًا: اتجاهات تأثير الذكاء الاصطناعي في المجال العسكري
بالنظر إلى خصائص الذكاء الاصطناعي وتطبيقاته الحالية والمتوقعة مستقبلًا، برزت تساؤلات حول كيفية تأثير دمج الذكاء الاصطناعي في العمليات العسكرية، خاصة فيما يتعلق ببعض الجوانب مثل الإصلاحات التنظيمية والمفاهيم القتالية المبتكرة والتي لن تتوقف تطوراتها على التقنيات التكنولوجية بمفردها. وللإجابة على هذه التساؤلات يمكن الحديث عن أبرز التأثيرات المحتملة لتقنيات الذكاء الاصطناعي في المجال العسكري على النحو الآتي:
1. تقييم جاهزية الجنود والوحدات والمؤسسات العسكرية: يقصد بها تقييم مستوى الجاهزية والاستعداد العسكري للجنود والمعدات في تنفيذ المهام؛ حيث يمكن لتطبيقات الذكاء الاصطناعي العسكرية اكتشاف عدم التطابق في التعليمات المقدمة من قبل القادة. بجانب قياس مستوى الجاهزية والاستعداد من خلال نظام رقمي مرتبط بإطار زمني محدد قادر على التنبؤ باحتمالات التأثير الإيجابي أو السلبي المحتمل على كفاءة العمليات العسكرية.
كما قد توفر أنظمة الذكاء الاصطناعي في مجال الاستعداد العسكري القدرة على التقييم المباشر وتفسير اتجاهات ومدخلات الجاهزية العسكرية وتزويد القادة العسكريين بمعلومات دقيقة حول حالة الجنود والوحدات، وهو ما قد يؤدي إلى إجراءات أكثر دقة لتعزيز الجاهزية وتحديد العوامل التي تعزز من كفاءة الاستعداد أو إعاقته؛ حيث تتضمن هذه الإجراءات الأفراد، والمعدات والإمدادات المتوفرة، وجاهزية المعدات للعمليات ومدى إتقان الوحدة للأنشطة التدريبية.
وفي هذا السياق أشار تقرير صادر عن مؤسسة راند إلى أن الولايات المتحدة اعتمدت على نماذج لتقييم جاهزية الجيش الأمريكي والتي شملت مجموعة من المدخلات مثل حالة الجنود في الوحدات، ومدى توافر المعدات وحالتها التشغيلية، وأنشطة التدريب والتي تهدف آليات الذكاء الاصطناعي إلى تحويلها إلى عناصر يمكن الاعتماد عليها في عملية تقييم حالة الاستعداد العسكري، ولعل هذه النماذج المختلفة التي تم تطويرها تستند على تحويل اللغة العسكرية المتعلقة بالأفراد والمعدات وأنشطة التدريب إلى عناصر تقييمية لدرجة الجاهزية والاستعداد العسكري مع الأخذ في الاعتبار الدلالات والسياقات المحيطة بالمفاهيم العسكرية.
وتستند هذه النماذج في تقييم مدخلاتها إلى بيانات وزارة الدفاع الأمريكية من خلال وحدة الجاهزية The Defense Readiness Reporting System)) والتي تتضمن تقارير حول استعدادات كل وحدة من وحدات الجيش بمختلف مستوياتها من خلال بناء نماذج للمحاكاة والمناورات وألعاب الحرب لتقييم مدى جاهزية القوات العسكرية.
2. صناعة الاستراتيجية العسكرية: نظرًا لأن استراتيجيات الدول بشأن الذكاء الاصطناعي أو المتعلقة به لا تقدم صورة واضحة عن كيفية تأثير الذكاء الاصطناعي على الاستراتيجية العسكرية، إلا أنه يمكن الإشارة إلى التوقعات الخاصة بمؤشرات الاستخدام المستقبلي المحتمل للذكاء الاصطناعي في اتخاذ القرارات العسكرية على المستوى الاستراتيجي للحرب. والتي تشمل القيادة والتحكم والمهام اللوجستية وجمع البيانات عبر العديد من أجهزة الاستشعار، ومعالجتها باستخدام خوارزميات الذكاء الاصطناعي لتحديد الأهداف، ثم التوصية بالسلاح الأمثل من القوات الجوية أو البرية أو البحرية أو الفضائية أو الإلكترونية، بالإضافة إلى الإجراءات التي تقوم بها في مجالات متعددة ومتكاملة في التخطيط والتنفيذ. كما أنه من المتوقع أن تمتد تأثيرات الذكاء الاصطناعي إلى إعادة تشكيل أنماط القيادة والاتصالات والاستخبارات والسيطرة على أنظمة التتبع والتوجيه والتمييز بين أنظمة الدفاع الصاروخي النووية وغير النووية، كما ستساعد صانعي القرار على مراقبة ساحة المعركة وتطوير السيناريوهات من خلال التنبؤ بسلوك وردود فعل الدول الأخرى أو إنشاء محاكاة لمستقبل النزاعات، بما في ذلك نماذج ألعاب الحرب، وفق منظور الإنذار المبكر Early Warning Systems.
وللتدليل على ذلك، اعتمد وزراء دفاع حلف شمال الأطلسي رسميًا في أكتوبر 2021، استراتيجية الذكاء الاصطناعي للحلف وتطوير وتنفيذ الاستراتيجية وسماتها وأهدافها الرئيسية. والتي شملت ست مبادئ رئيسية هي:
أ. الشرعية: تطوير تطبيقات الذكاء الاصطناعي واستخدامها وفقًا للقانون الوطني والدولي، بما في ذلك القانون الإنساني الدولي وقانون حقوق الإنسان حسب الاقتضاء.
ب. المسئولية والمساءلة: سيتم تطوير تطبيقات الذكاء الاصطناعي واستخدامها في ضوء بعض المستويات المناسبة مثل تطبيق مسئولية إنسانية واضحة لضمان تحقيق المساءلة.
ج. الوضوح: ستكون تطبيقات الذكاء الاصطناعي مفهومة وشفافة بشكل مناسب، بما في ذلك استخدام منهجيات ومصادر وإجراءات المراجعة، ويشمل ذلك آليات التحقق والتقييم والتحقق على مستوى الناتو أو على مستوى الدول.
د. الموثوقية: سيكون لتطبيقات الذكاء الاصطناعي حالات استخدام واضحة ومحددة، كما ستخضع سلامة هذه القدرات وأمنها وقوتها للاختبار والضمان في حالات الاستخدام من خلال إجراءات الاعتماد المعمول بها في الحلف.
ه. القدرة على الإدارة: تطوير تطبيقات الذكاء الاصطناعي واستخدامها وفقًا للوظائف المقصودة منها وستسمح بالتفاعل المناسب بين الإنسان والآلة والقدرة على اكتشاف وتجنب العواقب غير المقصودة مثل فك الارتباط أو إلغاء تنشيط الأنظمة عندما تُظهر سلوكًا غير مقصود.
و. تخفيف التحيز: اتخاذ خطوات استباقية لتقليل أي تحيز غير مقصود في تطوير واستخدام تطبيقات الذكاء الاصطناعي وفي مجموعات البيانات.
ويمكن الإشارة هنا إلى أنه في عام 2018، أسست سلسلة من إجراءات الكونجرس الأمريكي إطار عمل استراتيجية الذكاء الاصطناعي؛ حيث سمح قانون جون س. ماكين عام 2019، بإنشاء لجنة الأمن القومي للذكاء الاصطناعي (NSCAI)التي هدفت إلى مواجهة تهديدات الذكاء الاصطناعي من الجهات الحكومية وغير الحكومية، وتحديد الاستخدامات الأخلاقية للذكاء الاصطناعي، بالإضافة إلى رصد التحديات، وكيف يمكن للولايات المتحدة الحفاظ على المزايا التنافسية ضد خصومها خاصة الصين وروسيا.
3. العقيدة العسكرية للجيوش: تمثل العقيدة Doctrine الأداة التي تقوم بتحديد المعايير الأخلاقية لتطوير واكتساب واستخدام أنظمة الذكاء الاصطناعي في الاستراتيجيات العسكرية، ونظرًا لأن العقيدة والمذاهب العسكرية يتم صياغتها وفق قواعد القانون الدولي، فمن المرجح أن يكون للذكاء الاصطناعي دور محدود في تطوير العقيدة العسكرية وأن يظل دمجه والإشراف عليه ومراجعته من جانب القادة العسكريين. وهو ما سيؤدي إلى تحديد أدوار الذكاء الاصطناعي على مجموعة من المجالات مثل المراقبة وموائمة عمليات القوات المسلحة مع اتجاهات عقيدتها لتحديد ما تم تنفيذه في الماضي، وإجراء تقييمات لقياس مدى جودة العقيدة ضمن نطاق عمل العسكريين المكلفين بتحديد العقيدة العسكرية بصورة فعالة، وهذه العملية تتطلب قدرة عالية على تفسير تقنيات الذكاء الاصطناعي حتى يتمكن القادة العسكريون من فهم واتخاذ القرارات المناسبة بناءً على هذه المخرجات.
وامتدادًا لما سبق، فمن غير المحتمل أن يكون لتقنيات وتطبيقات الذكاء الاصطناعي وظيفة جوهرية في تشكيل مبادئ وقيم العقائد العسكرية وأن وظائفها لن تتخطى عمليات التقييم والمتابعة، ويمكن إرجاع أسباب ذلك إلى أن العقيدة العسكرية تعمل على تحديد وتنظيم قضايا وجوانب العمليات العسكرية التي ترتبط ارتباطًا وثيقًا بالمعتقدات والقيم والهوية.
وتجدر الإشارة هنا، إلى أنه وبسبب هذه الوظيفة تحديدًا، فإن للعقيدة دورًا مهمًا في تحديد العلاقة الأساسية للقوات المسلحة بالذكاء الاصطناعي، والتي تتوقف على رؤية القائمين على هذه الوظائف لتحديد المصطلحات العامة لتطبيقات الذكاء الاصطناعي المستخدمة وكيفية استخدامها وتقيمها. وعلى هذا النحو، يمكن لتطبيقات الذكاء الاصطناعي أن تضع الإطار المعياري للعقيدة العسكرية استنادًا على المبادئ التوجيهية الأخلاقية للدول كأساس للعقائد العسكرية وتحسين عملية الدمج بينهما. ومن ثم يمكن تطوير العقيدة العسكرية المستقبلية بشأن الذكاء الاصطناعي أو المرتبطة به بناءً على سياسات الاستخدام الأخلاقي خاصة أن الذكاء الاصطناعي سيغير أدوات الحرب إلا أنه لا يغير طبيعتها، كما أن العقيدة العسكرية التكنولوجية لا تعني بالضرورة انتفاء استخدام الوسائل التقليدية في الحروب.
ويمكن الإشارة هنا إلى أن العقيدة تمثل الإطار الحاكم لاستخدام القوة أثناء الأعمال العسكرية، وفي هذا الإطار، تمثل التكنولوجيا أحد العوامل في تنفيذ هذه العقيدة؛ حيث سيغير الذكاء الاصطناعي الطريقة التي تُخاض بها الحرب. ويمكن الإشارة هنا إلى الحرب الروسية الأوكرانية كأحد الأمثلة البارزة على التحولات في العقيدة العسكرية؛ حيث تغيرت الأدوار بتطور مراحل العمليات العسكرية من الاعتماد على القوى العسكرية التقليدية إلى اعتماد تقنيات الذكاء الاصطناعي في إدارة المعارك بينهما من خلال استخدام الطائرات غير المأهولة وتوظيف أنظمة الحروب الإليكترونية.
كما يمكن القول بأن عمليات التحول في العقيدة القتالية للجيوش جاءت لتواكب صراعات وحروب المستقبل ضمن إطار تعزيز قدرات الردع العسكرية لمواجهة التهديدات التي تتعرض لها، وهو ما ظهر من خلال ميزانيات بعض الدول العسكرية، على سبيل المثال أعلن البيت الأبيض، في التاسع من أبريل 2021 أن الرئيس الأمريكي السابق جو بايدن، تقدم بمقترح إلى الكونجرس للتركيز على امتلاك قوة ردع بعيدة المدى مثل صواريخ فرط الصوت والمركبات المسيرة البحرية وتطوير الجيل التالي من غواصات الصواريخ النووية، وإنفاق المزيد من الأموال على جهود البحث والتطوير لتقنيات عسكرية جديدة تشمل العديد من القطاعات لتأمين امتلاك مكانة رائدة في تصنيع الأسلحة التكنولوجية المتطورة.
من ناحية أخرى، تتمثل أهم مظاهر هذا التحول في سعي جيش التحرير الشعبي الصيني إلى تطوير عقيدته العسكرية وتعزيز قدراته من خلال إدخال تقنيات الذكاء الصناعي في توجهاته الاستراتيجية في مواجهة المخاطر المحيطة به؛ حيث ركزت القيادة العسكرية الصينية على القدرات الجوية والفضائية والبحرية والإلكترونية وتخصيص الموارد المالية لذلك مثل الأنظمة المستقلة وغير المأهولة والصواريخ التي تفوق سرعة الصوت وغيرها من التقنيات. وفي الوقت نفسه، تطمح الصين إلى أن تصبح قوة عظمى في مجال الذكاء الصناعي بحلول عام 2030. ففي عام 2022، أعلنت الصين أنها نجحت في تطوير نموذج نظام دفاع جوي مزود بالذكاء الصناعي للتنبؤ بمسار الصواريخ التي تفوق سرعتها سرعة الصوت مع القدرة على شن الهجمات المضادة. بجانب ذلك طورت الصين مجموعة من أنظمة الأسلحة المستقلة. على سبيل المثال تم نشر الروبوتات والأنظمة العسكرية غير المأهولة في البر والجو والبحر والفضاء.
وفيما يتعلق بعقيدة الحرب الهندية التي أعلنتها في عام 2018 فقد أقرت بإنشاء مركزًا للذكاء الاصطناعي لقيادة وتوجيه سباق التسلح المدعوم بالذكاء الصناعي لأغراض عسكرية، وإدماجه في الأنظمة العسكرية في ظل توتراتها المتصاعدة مع كل من باكستان والصين؛ حيث تعمل على تطوير إطار عمل الروبوتات متعدد الاستخدامات للمساعدة في الحروب المستقبلية. كما تتعاون مع اليابان في مجال الروبوتات والذكاء الصناعي، وفي نفس الوقت تسعى نحو استخدامات أكثر تطورًا للذكاء الصناعي في قطاع الدفاع العسكري بما يتضمن تحليل البيانات، والتعرف على الأهداف، وتقييم مناطق إسقاط الصواريخ، واستخدام الروبوتات في المهام القتالية، كما تتعاون الهند والولايات المتحدة في مجال تكنولوجيا الفضاء لتطوير تطبيقات الذكاء الاصطناعي العسكرية لمواجهة الخصوم.
4. التخطيط العسكري: من المحتمل أن يكون لتطبيقات الذكاء الاصطناعي تأثيرات كبيرة على عملية التخطيط العسكري خاصة فيما يتعلق باتجاهات التنبؤ التي تمثل أحد أكثر المهام صعوبة التي تواجه القادة العسكريين بسبب اعتمادها على تحليل كمية هائلة من المعلومات والبيانات. ومن هذا المنطلق، قد يتفوق الذكاء الاصطناعي في معالجة عملية التنبؤ بجودة ودقة عالية لقدرته على معالجة معلومات وبيانات أكثر من العنصر البشري، وهو ما يساهم في تجنب حدوث تداعيات سلبية لعملية التخطيط العسكري بالإضافة إلى تحسين سرعة ودقة اتخاذ القرار. ومن هذا المنطلق، سيلعب الذكاء الاصطناعي دورًا مهمًا في عمليات التخطيط على المدى القصير إلى المتوسط، وسيكون لهذا آثار كبيرة على مسار العمليات العسكرية، باعتبار أن من يمتلك قدرات المراقبة والتوجيه سيكون أكثر قدرة على ترشيد اتخاذ القرار العسكري. بالإضافة إلى ذلك، فقد ساهمت تقنيات الذكاء الاصطناعي في تحسين مستوى عمليات التحليل الجغرافي لخدمة اللوجستيات العسكرية لكونها من أهم عوامل النجاح في تخطيط العمليات العسكرية، وهو ما انعكس بصورة إيجابية على تخفيض الجهد والوقت ومعدلات الخطأ.
وفيما يتعلق بإدخال التوجهات الجديدة للتخيط العسكري، ظهرت اتجاهات عديدة نحو دمج أنظمة التشغيل التكنولوجية في تحديد المهام الجديدة للجيوش وإدارتها، وهو ما ظهر من خلال الاهتمام باستخدام الذكاء الاصطناعي لتعزيز التطبيقات القائمة على البرامج أكثر من الاهتمام بتطوير أنظمة الأسلحة العسكرية المستقلة باعتبار أن هناك حاجة إلى تقنيات وتطبيقات الذكاء الاصطناعي لتحديد أولويات النتائج وطرق التنفيذ والمتابعة.
وضمن هذا السياق، اتجهت وزارة الدفاع الأمريكية في ظل هذه التصورات إلى إنشاء بنية تحتية تكنولوجية يمكن لها التعامل مع البيانات الضخمة للحوسبة السحابية باعتبار أن التخطيط العسكري للحروب المستقبلية يتطلب فرز وتصنيف ومعالجة البيانات للوصول إلى أفضل الاتجاهات للتخطيط العسكري. على الجانب الآخر، اتجهت الصين إلى الاعتماد على الأنظمة المستقلة في إدارة عملية التخطيط العسكري والتي تتميز بأنها أكثر تحكمًا من جانب القادة المركزيين أكثر من الأدنى منهم في سلم القيادة. ومع ذلك، فحتى أكثر المنصات استقلالية من المحتمل أن يكون لها حكم ذاتي مقيد فقط، وتبقى تحت الإشراف المباشر للقادة العسكريين الذين يتم وصفهم في بعض الأحيان بضباط الأركان الرقميين القادرين على تحديد توقيت العمليات واتجاهات تحرك العدو الميدانية، وهو ما يترتب عليه تحديد أعداد القوات المطلوبة ومتى يتم حشدها، وكذلك تحديد مدة الحملات. وعلى الرغم من تولي تقنيات الذكاء الاصطناعي بعض وظائف التخطيط وصنع القرار التكتيكية أو التشغيلية، إلا أنه من غير المحتمل أن يحل مكان القادة العسكريين البشريين بالكامل.
5. تغير قواعد الاشتباك: سيحدد الذكاء الاصطناعي قواعد الاشتباك العسكرية من خلال إدارة التفاعل بين البشر وأنظمة الذكاء الاصطناعي فيما يتعلق بتنفيذ المهام. وعلى وجه الخصوص، يمكن لقواعد الاشتباكRules of Engagement أن تحدد كيف يحتاج القائد إلى مراقبة النظام والتحكم فيه أثناء العمليات العسكرية وتحسين مهام الاستطلاع الميداني وأنظمة الحرب الإلكترونية. إلا أنه في ظل دخول تقنيات الذكاء الاصطناعي إلى هذا المجال، قد تختلف مهمة القادة العسكريين وفقًا للمهمة المحددة المنوط بها نظام الذكاء الاصطناعي؛ حيث يمكن له تحديد مستوى الاستقلالية لأنواع معينة من العمليات أو في بعض مراحلها من خلال تشكيل فريق من الإنسان والآلة في العمليات إدارة قواعد الاشتباك في العمليات العسكرية، لا سيما عند مواجهة مواقف أو مشكلات غير متوقعة ولم يتم التخطيط لها مسبقًا.
من ناحية أخرى، توفر أنظمة المحاكاة العسكرية استخدام تقنيات الواقع الافتراضي “VR” والواقع المعزّز “AR” في تطوير قواعد الاشتباك داخل النماذج والميادين العسكرية الافتراضية للمساعدة خلال التدريب على تقنيات القتال المستخدمة في العمليات العسكرية الحقيقية بهدف تعزيز قدرات الجنود القتالية والتكتيكية. ولعل أبرز المؤشرات على ذلك يتمثل في اختلاف ساحات حروب المستقبل عن الحروب التقليدية التي لن تعتمد على المواجهات المباشرة وإنما تقوم على إدارة الصراعات والحروب عن بُعد(Remotely)، من خلال الهجمات السيبرانية والفضاء كأحد أدوات الردع، والتي تعتمد على مزيج من تكنولوجيا الحوسبة والفيزياء الكمية وتكنولوجيا الفضاء والهجمات السيبرانية والتي تعتبر أنماط جديدة من القوة غير التقليدية التي ستحدد شكل الحروب في المستقبل.
وضمن هذا الإطار، أعلن جيش التحرير الشعبي الصيني عن اهتمامه باستخدام الذكاء الاصطناعي في أدوات الحرب الإلكترونية الهجومية والدفاعية واستخدامها في التعرف على الأنماط لتحديد التهديدات، كما طورت مجموعة الصين للتكنولوجيا الإليكترونية أدواتها لاكتشاف اختراق الشبكة ومهاجمة أنظمة العدو وتعطيلها. ومن الواضح أن الجيش الصيني يركز اهتماماته في اتجاه توظيف هذه التقنيات في تحسين عمليات الاستحواذ على البيانات وإضعاف القدرات السيبرانية للأعداء.
6. أنماط تسليحية جديدة: من شأن استخدام الروبوتات المقاتلة في الحروب التقليل من عدد الجنود في المهام العسكرية المختلفة، وهو ما يقلل بالتبعية حجم الخسائر البشرية التي يتعرضون لها وأيضًا مصابي الحرب بين المدنيين. بجانب ذلك، فقد ساهم استخدام هذه التقنية في تعزيز قدرات الوصول واستهداف مناطق جغرافية لم تكن ضمن خطط الاستهداف، وهو ما يعني اتساع نطاق ميادين المعارك العسكرية. وضمن هذا السياق، أفرزت تقنيات الذكاء الاصطناعي ما يعرف بنظم الأسلحة ذاتية التشغيل والتي تتمتع بدرجة كبيرة من الاستقلالية في العمل بعيدًا عن تدخل العنصر البشري مثل الطائرات بدون طيار الذاتية القيادة المأهولة وغير المأهولة والروبوتات المقاتلة والتي يمكن أن تقوم ببعض مهام الجنود من رصد وتتبع وتحديد ومراقبة الأهداف ومهاجمة الأعداء. بالإضافة إلى ذلك، يمكن لهذه التقنيات تحسين الأداء وتقليل المخاطر التي يمكن أن تتعرض لها القوات العسكرية النظامية؛ حيث تقوم هذه النظم بالتعامل مع العبوات الناسفة، وإزالة الألغام، وتأمين الطرق، وتنفيذ مهام الاستطلاع.
ومن بين جميع تقنيات الذكاء الاصطناعي، تعطي الصين الأولوية القصوى للأنظمة والمعدات القتالية غير المأهولة إلى جانب الابتكارات العسكرية المتقدمة الأخرى؛ حيث أحدثت هذه التكنولوجيا تغيرات في شكل الحروب باعتبارها أحد الخيارات الأولى للمعدات القتالية المستقبلية. وفي عام 2015، أصدرت الصين وثيقة صنع في الصين 2025، وبعد عامين في عام 2017، أصدرت خطة تطوير الذكاء الاصطناعي للجيل الجديد واللتان تثبتان أن الحكومة المركزية في الصين أكدت رسميًا أهمية تطوير تقنيات الذكاء الاصطناعي. ومنذ أن تولى الرئيس شي جين بينج منصبه، أكد على أهمية تطوير الأنظمة غير المأهولة في مناسبات مختلفة. على سبيل المثال، في عام 2017، عندما زار شي جين بينج معسكرات التدريب على العمليات غير المأهولة، أعلن إن الطائرات بدون طيار هي قوات قتالية مهمة في ساحة المعركة الحديثة لتقليل عدد الضحايا بشكل فعال، وتحقيق استطلاع واستهداف دقيق للأهداف المعادية، والقيام بعمليات إعادة الإمداد، وتحسين الفعالية القتالية بشكل كبير.
7. التغير في موازين القوى العسكرية: أنتجت تقنيات الذكاء الاصطناعي معايير ومؤشرات جديدة لقياس قدرات الدول العسكرية، فمنذ ظهور تكنولوجيا الذكاء الاصطناعي في المجال العسكري، أصبح التكنولوجيا أحد أكثر العوامل المؤثرة في تحديد موازين القوى في النظام الدولي وفق مفهوم الإمبراطوريات الرقمية Digital Empires؛ إذ أن الدول التي تمتلك أدوات التكنولوجيا وتحرص على تطويرها باستمرار تكون فرصها أكبر في ممارسة النفوذ والتأثير في التفاعلات الدولية، وربما يؤدي التنافس على التفوق في الذكاء الاصطناعي إلى اندلاع صراعات وحروب جديدة. ومن ثم فقد أفرزت هذه الاتجاهات معضلة أمنية كبيرة في مجال التنافس الإقليمي والدولي، خاصة بعدما اتجهت الدول إلى تطوير أسلحة ذات تقنية عالية لتحقيق ميزة استراتيجية تنافسية، كما أن تخصيص هذه الدول جزءً كبيرًا من ميزانياتها للإنفاق على تطوير تكنولوجيا الذكاء الاصطناعي قد يزيد من سباق التسلح العالمي، خاصة أن هذه التكنولوجيا باتت تدخل بشكل رئيسي في بناء الجيوش الحديثة. وهو ما يمكن أن يدفع نحو تدهور البيئة الأمنية الإقليمية والدولية.
وضمن السياق ذاته، فإن أحد التداعيات المهمة لهذا الأمر تتمثل في ظهور ما يعرف بالذكاء الاصطناعي الاستعماري والمتمثل في سيطرة مجموعة من الدول على مجال الذكاء الاصطناعي العسكري وتطبيقاته بما يجعل من الصعوبة بمكان إمكانية الوصول إلى التكنولوجيا المتقدمة بالنسبة إلى الدول الصغيرة والتي تغيب دائمًا عن المناقشات والسياسات المنظمة لطبيعة امتلاك واستخدام هذه التقنيات.
8. اتجاهات جديدة للحروب المستقبلية: نظرًا لتنامي استخدامات تقنيات الذكاء الاصطناعي في الجيوش وإدخال هذه التقنيات في عمليات التخطيط الاستراتيجي للمعارك وتحديد الأدوات العسكرية المستخدمة، فمن المؤكد أنه سيحدث نوع من أنواع التغير في شكل الحروب المستقبلية بعدما أحدثت هذه التطورات تغيرات عديدة على مستوى المفاهيم والممارسات في المعارك العسكرية. كما أن نموذج صنع القرار التقليدي في الحرب لن يكون قادرًا على التكيف مع صنع القرار في عصر الذكاء الاصطناعي وخاصة فيما يتعلق بمسارات الاستجابة السريعة، وهذا التغيير سيجعل من الصعوبة بمكان على بنية الأمن الدولي التقليدية والأساليب المتعارف عليها لإدارة الصراعات والحروب القدرة على التكيف مع التحديات الجديدة التي أفرزتها تطبيقات الذكاء الاصطناعي من معضلات أمنية، وهو ما يتطلب وضع مفهوم أمني جديد يأخذ بعين الاعتبار تطورات الذكاء الاصطناعي، بما في ذلك الأمن التقني وأمن التطبيقات المستخدمة.
وبناءً عليه، من المتوقع أن يكون هناك طفرات تكنولوجية في استخدام تطبيقات الذكاء الاصطناعي في الحروب وهذا لا يعني تراجع الأدوات التقليدية، ويمكن الإشارة هنا إلى إن الاستخدام السابق للأسلحة النووية في الماضي كان يُعد بمثابة ثورة في مسار الحروب خاصة أن الحروب اعتمدت في السابق على المرتزقة ثم الجيوش النظامية، وبالتالي ستكون الحروب المستقبلية قائمة على الأنظمة المؤتمتة في المجالين الجوي والبحري وبصورة أقل في المجال البري. بالإضافة إلى ذلك تتزايد إمكانية التوسع في استخدام تقنيات الحرب الإليكترونية، وهو ما يعني عدم الاقتصار على ساحات المعارك المسلحة والاتجاه نحو استهداف مواقع وأهداف غير عسكرية داخل الدول.
ثانيًا: مخاوف تطبيق الذكاء الاصطناعي في المجال العسكري
لا ينفصل عما سبق، الحديث المتنامي في الآونة الأخيرة عن التحولات التي شهدتها مجالات الحرب والعمليات وتطور الاستراتيجية العسكرية في ظل التحول إلى ما يسمى برقمنة الحرب وأدواتها بعدما تم إدخال هذه التكنولوجيا المتطورة في تطبيقات المجال العسكري، وهو ما يمكن أن يغير من المفاهيم والأدوات والأبعاد والتداعيات للحرب والعمليات العسكرية التقليدية، وفيما يلي أبرز هذه المخاوف:
1. تقليص مهام القادة العسكريين في قطاعات حيوية: هناك تداعيات سلبية لاستخدام تكنولوجيا الذكاء الاصطناعي في عمليات التخطيط العسكري، حيث أن زيادة سرعة الحرب بسبب التخطيط المدعوم بالذكاء الاصطناعي ستقلل وقت مراجعة صانعي القرار للإجراءات، وبالتالي ضعف جودة القرارات العسكرية التي يتم اتخاذها. ومن ناحية أخرى، فإن اعتماد أنظمة الذكاء الاصطناعي في عمليات التخطيط قد يؤدي إلى تعزيز قدرات هذه الأنظمة في ظل السرعة العالية التي تشهدها العمليات العسكرية Real-Time Response وهو ما سينعكس في اتجاه منح مزيد من التفويض لمهام التخطيط للذكاء الاصطناعي، وفق تصور أن القادة والمخططين العسكريين لم يعودوا قادرين على فهم أو تتبع كيفية توصل النظام إلى استنتاجاته؛ ويمكن إرجاع ذلك إلى أن الخيارات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي تنطوي على مستويات عالية من التعقيد.
وفي إطار معالجة ذلك، أعلنت الولايات المتحدة عن توجيهاتها بشأن أنظمة الأسلحة التي تنطوي على استخدام الذكاء الاصطناعي، وقالت إنه يجب الاحتكام إلى البشر بقدر أكبر في تطوير أنظمة الأسلحة المستقلة، وهو ما لا يتعارض مع الاتجاهات الخاصة بعمليات دمج الذكاء الاصطناعي في عملية صنع القرار لدى جميع فروع الخدمة العسكرية الأمريكية.
2. غياب المسئولية الأخلاقية والقانونية: يغيب عن القانون الدولي المعاصر الحديث عن معاهدات أو اتفاقيات تحظر التطوير أو خفض مستوى التسلح في مجال تطبيقات الذكاء الاصطناعي العسكرية، كما أن تقنيات الاصطناعي ظهرت بصورة لاحقة على إنشاء قواعد القانون الدولي الحالي ولم تتضمن الحديث عنها اتفاقات لاهاي لعام ١٨٩٩ و١٩٠٧ واتفاقات جنیف الأربعة لعام ١٩٤٩ والبروتوكولان الإضافيان لعام ١٩٧٧. ومن ثم برزت الحاجة إلى وضع إطار قانوني جديد لضبط هذه الممارسات وتحديد وظائفها داخل الجيوش وفي أثناء العمليات العسكرية، خاصة أن هذه التقنيات لا تلتزم بالأعراف والمواثيق الدولية والإنسانية التي تفرض التمييز بين الأهداف المدنية والعسكرية في عمليات الاستهداف. ولعل هذا الفراغ التشريعي وعدم وجود مقاربة قانونية تستند على المعايير الأخلاقية لمعالجة هذه الممارسات أفضى إلى إيجاد حالة من الفوضى تشبه الحالة التي كان عليها الإنسان في مرحلة الطبيعة الأولى.
وبالتالي، يجب أن تخضع منظومات الأسلحة ذاتية التشغيل لرقابة بشرية وتمكينهم من التدخل لوقف أو تعديل الإجراءات الواردة من أنظمة الذكاء الاصطناعي. ففي الوقت الذي يتمكن فيه العنصر البشري من تحديد أهدافه بما يتفق مع القانون الدولي، تفشل الروبوتات والأسلحة ذاتية التشغيل في استشعار الفرق بين الأهداف العسكرية والأهداف المدنية التي لا يجب أن تكون هدفًا. بجانب ذلك، فإن الصعوبات المحيطة بتحديد الطرف القائم بالاستهداف السيبراني وهوية الفاعل، فرضت تحديات بالنسبة للدول فيما يتعلق بإمكانية التوقيع على الاتفاقيات التي قد يتم صياغتها في المستقبل لعدم قدرتها على تنظيم هذه التفاعلات ومحاسبة المسئولين عنها.
وتشير هذه الاتجاهات في مضمونها العام إلى عدم قدرة القواعد القانونية التقليدية بصورتها الحالية على معالجة انعكاسات استخدام تقنيات الذكاء الاصطناعي باعتبارها ممارسات غير تقليدية، وبالتالي هناك حاجة إلى إيجاد إطار وتفسيرات قانونية قادرة على إدارة وتنظيم ومعالجة هذه الظاهرة بمختلف جوانبها.
وفي إطار معالجة هذه المشكلات، اتجه المشرعون القانونيون إلى وضع قواعد قانونية جديدة للتكيف مع حدود استخدام تقنيات الذكاء الاصطناعي في المجال العسكري؛ حيث قامت فرنسا في سبتمبر 2019 بالإعلان عن تطبيق قواعد القانون الدولي في المجال السيبراني، واعتبار أن أي تحرك ضدها في هذا الاتجاه سيكون بمثابة اعتداء على سيادتها من الدول الأخرى سواء بصورة مباشرة أو غير مباشرة، وهو ما يستوجب التعامل معه وفق القوانين والأعراف الدولية.
ومن ناحية أخرى، سيعمل الذكاء الاصطناعي كثقل موازن في تحديد أوجه المنافسة بين الولايات المتحدة الأمريكية والقوى الأخرى مثل الصين وروسيا باعتبارهما لن ينخرطا في الالتزام بالمعايير والمبادئ الأخلاقية، وبخاصة أن الصين أعلنت كجزء من خطتها الاستراتيجية لأن ستكون الدولة الرائدة عالميًا في مجال الذكاء الاصطناعي بحلول عام 2030، وركزت استثماراتها في التقنيات ذات الاستخدام المزدوج مثل المعالجة المتقدمة للبيانات والأمن السيبراني، وهو ما يشكل تهديدًا للهيمنة التقنية والمعرفية للولايات المتحدة.
ويمكن الإشارة هنا إلى أن هناك اختلافات في الرؤيتين الأمريكية والأوروبية حول تطبيقات مجالات الذكاء الاصطناعي المختلفة، على سبيل المثال يعمل البرلمان الأوروبي على تطوير التشريعات الداخلية لدول الاتحاد لبلورة أول قانون شامل للتعامل مع تطورات الذكاء الاصطناعي، وبرغم ذلك فإن القانون المقترح لا يمكن اعتباره سياسة أوروبية عامة تتناسب مع الجميع على غرار اللوائح العامة لحماية البيانات ولوائح التكنولوجيا الأوروبية الأخرى، إلا أن اتجاهات هذا القانون تتمثل في وضع قواعد صارمة لأي نظام يستخدم تقنية الذكاء الاصطناعي وتطبيقاته، وهو ما يمكن أن يفرض قيودًا على الابتكار التكنولوجي في مختلف المجالات.
على الجانب الآخر، ترفض الولايات المتحدة تطبيق مثل هذه القوانين؛ إذ لا تستطيع أن تحذو حذو الدول الأوروبية وتنفيذ هذه القواعد التي قد تعرقل الابتكار التكنولوجي من أجل التخفيف من الأضرار غير المثبتة، خاصة أن الصين على الجانب الآخر تحقق نجاحات واختراقات نوعية في ابتكار مجالات جديدة للذكاء الاصطناعي؛ حيث يتصارع الطرفان على القواعد واللوائح الخاصة بإدارة عمليات استخدام ونقل وتخزين البيانات. كما تشكل الكفاءة المتزايدة لمجتمع تطوير الذكاء الاصطناعي مفتوح المصدر عقبة كبيرة أمام التنظيم القانوني لهذا القطاع، وهو ما يأتي بالتزامن مع صعوبة تحديد المسئولية عن استخدام تطبيقات الذكاء الاصطناعي المختلفة بما يجعل لوائح الذكاء الاصطناعي أكثر صعوبة في التنفيذ.
3. تزايد معدلات الخطأ في الاستراتيجية والاستهداف العسكري: تصاعدت المخاوف من المخاطر المترتبة على خطأ تقدير تقنيات وأنظمة الذكاء الاصطناعي بسبب حدوث خلل تقني أو اختراق سيبراني في عمليات التنبؤ، وهو ما قد يؤدي إلى ظهور تحديات جديدة، لأنه في حال حدوث خلل أو سوء تقدير لهذه الأنظمة، سيؤدي ذلك إلى تفاقم التهديدات وتغيير طبيعتها وخصائصها وإدخال تهديدات أمنية جديدة، وقد أظهرت بعض الممارسات العملية أن أنظمة التطبيقات العسكرية عرضة للتلاعب، خاصة العمليات التي تقوم بها بعض الجهات الثالثة من خداع أو تضليل أو تعطيل أو إضعاف لهذه الأنظمة. كما تأتي هذه التحديات في ظل التسريع من وتيرة السير خلف اختبار التكنولوجيا الجديدة في الاستخدامات العسكرية. بالإضافة إلى إن هناك تراجعًا في جهود تقييم المخاطر التي تمثلها تلك التكنولوجيا ووضع حدود لتوظيفها والتصورات حول قيود استخدامها.
وضمن السياق ذاته، هناك حالات توضح الاخفاقات في أنظمة مضادات الطائرات وتحديد هوية الأهداف وما إذا كانت تتبع الأعداء أو الحلفاء، وهو ما يتطلب التعامل الفوري مع المعلومات التي ترسلها أجهزة الاستشعار لإطلاق الصواريخ الاعتراضية، وهذه الأنواع من المهام تتطلب تدخل البشر لتأخير أو منع عمليات إطلاق النار، ومن ثم ضرورة إحداث نوع من أنواع التوازن بين صنع القرار البشري وتقنيات الذكاء الاصطناعي وهو أمر يصعب تحقيقه. ومن الأمثلة على ذلك التحقيقات التي قام بها البنتاجون في 22 مارس 2003 لتحليل أسباب إسقاط طارئة تورنادو البريطانية بواسطة أنظمة صواريخ باتريوت الأمريكية في العراق. بالإضافة إلى ذلك، برزت هذه الإشكالية في حادثة إطلاق بطارية صواريخ باتريوت خلال حرب العراق، عندما تم التعرف بشكل خاطئ على طائرة تابعة للبحرية الأمريكية من طراز F/A-18 على أنها صاروخ باليستي وتم إسقاطها، وهو ما أسفر عن مقتل طاقمها.
ووفقًا لتقرير مركز التحليلات البحرية الصادر في عام 2019، فقد أظهر أن أنظمة صواريخ باتريوت اعتبرت الطائرة مقذوف معاد ومن ثم وافق المشغل على التوصية بإطلاق النار، وقد أظهرت هذه العملية الصعوبة التي تواجهها بطاريات صواريخ باتريوت في تحديد الأهداف المحتملة والتي تمثل بصورة عامة أحد أخطر التحديات التي تواجه عمل الأسلحة المستقلة والمتمثلة في الحصول على بيانات دقيقة بجانب عدم نقل المعلومات والإشارات إلى الطاقم العسكري الذي يقوم بتشغيل هذه الأنظمة.
وفي إطار معالجة ذلك، اتخذ البنتاجون مجموعة من الخطوات لمعالجة هذه المخاطر؛ حيث أعلن في فبراير 2020 عن تطبيق مبدأ إمكانية التتبع والذي يتضمن التأكيد على أن الموظفين المعنيين سيمتلكون الفهم المناسب للتكنولوجيا، بما في ذلك منهجية تحليل البيانات وتدقيقها وتطوير أدوات الاختبار والتفسير للمعلومات المرسلة من تطبيقات الذكاء الاصطناعي العسكري واتخاذ القرارات العسكرية في هذا الصدد.
4. تسريع وتيرة الحروب: يتمثل هذا التحدي في أن الذكاء الاصطناعي قد يزيد من سرعة الحرب بسبب عدم قدرة القادة العسكريين على متابعة التطورات المتسارعة، وهو ما يؤدي إلى فقدان البشر السيطرة، بالتوازي مع تنامي دور أنظمة الذكاء الاصطناعي وتفردها في إدارة العمليات العسكرية وفق مفهوم الحرب الفائقة. ومن ثم، يمكن أن يؤدي ذلك إلى حدوث فجوة بين كيفية حل الذكاء الاصطناعي للمشكلات العسكرية، باعتبار أن قدرات أنظمة الذكاء الاصطناعي ستكون العامل الحاسم لا سيما فيما يتعلق بتحديد الخيارات المتخذة. ويؤشر على ذلك، أنه خلال السنوات القليلة الماضية، اتجهت العديد من الدول إلى تعزيز قدراتها العسكرية وبرامجها الصاروخية بتكنولوجيا الذكاء الاصطناعي، وهو ما يجعلها قابلة للانطلاق وتدمير الأهداف المحددة مسبقًا في حالة استشعارها بوجود أي خطر أو حدوث هجوم عليها، وهذه التطورات تشير إلى أن العالم سيشهد مرحلة جديدة من سباق التسلح أكثر خطورة عن تلك التي شهدها العالم بين الولايات المتحدة والاتحاد السوفيتي السابق إبان فترة الحرب الباردة.
5. التغير في مضمون القوة العسكرية: بعد دمج تطبيقات الذكاء الاصطناعي داخل الجيوش والصناعات العسكرية، برزت العديد من المتغيرات ذات التأثير المباشر على أنماط التفاعل الدولي؛ حيث أصبحت القوة التكنولوجية وتطبيقات الذكاء الاصطناعي تمثل مؤشرًا جديدًا في تحديد معايير القوة، ومجالًا جديدًا للتنافس بين الدول على امتلاك هذه التقنيات باعتبارها ضمانًا للتفوق النوعي على الآخرين فيما يعرف بتقنيات الحرب غير المتماثلة. وامتدادًا لذلك، ظهرت بعض المفاهيم الجديدة التي أفرزها هذا التنافس والمتمثل في مؤشرات القوة غير المتكافئة بين الدول، والذي يشير إلى استمرار الدول الكبرى داخل النظام الدولي في التمتع بالقدرات التكنولوجية المتقدمة في المجالات العسكرية، وهو ما قد يدفع الدول الأخرى إلى تطوير قدراتها التكنولوجية بما يمنحها بعض المميزات التكنولوجية وإن كانت غير متكافئة.
بالإضافة إلى ذلك، أحدثت هذه التطورات تغيرات كبيرة في مفهوم التوزان الاستراتيجي التقليدي، الذي كان يعتمد على القوة البشرية، والموارد، والاقتصاد، وحجم التسلح، وعدد المعدات وغيرها، كما غير مفاهيم الحرب والمواجهة العسكرية من حيث اتساع نطاقها واستراتيجياتها، وفرض تحديات جديدة أمام الدول في مجال الدفاع، ولا سيما ما يتعلق بالقدرات التكنولوجية على المواجهة والتأمين وحجم الإنفاق.
ومن ناحية أخرى، فإن تطور تقنيات الذكاء الاصطناعي سيساهم في امتلاك هذه التقنيات لكثير من الفاعلين من غير الدول، وهو ما يعني تشتت القوة عن مراكزها المعتادة، ومن ثم زيادة الصعوبات المحيطة بعملية تتبع مصادر الخطر، وأنه في ظل لامركزية القوة، ستتفاقم الأعباء اللوجستية والمادية لمواجهة التحديات الأمنية الناشئة عن هذا الدمج بين التكنولوجيا والقوة العسكرية.
وضمن هذا السياق، ظهر ارتباط آخر يتعلق بامتلاك القدرات التكنولوجية وميزان القوى غير المتكافئ بعد أن أوجد الذكاء الاصطناعي فاعلين جدد على خلاف الفاعلين التقليديون مثل تقنيات الذكاء الاصطناعي بحد ذاتها، كما ظهر فاعلين آخرين استفادوا من تطور هذه التقنيات مثل جماعات التطرف العنيف والشركات متعددة الجنسيات، وهو ما أسهم في إيجاد بيئة متداخلة في القدرات السيبرانية وبما أفرزته من تفاعلات قد تؤدي إلى حدوث حالة من الفوضى في ظل عدم وجود إطار تنظيمي قادر على استيعاب هذه التفاعلات الخاصة باتجاهات تكوين النفوذ وحدود الأدوار على سبيل المثال قد نجد تفوق لشركات مدنية عاملة في المجال التكنولوجي على جيوش الدول. وبناءً عليه، فإن إدماج الذكاء الاصطناعي في المجال العسكري سيؤدي إلى إدخال متغير جديد في المعادلة العسكرية؛ حيث لن تتساوى فيه الجيوش التي تستخدم تلك التكنولوجيا الجديدة مع غيرها في ظل القدرات غير المتماثلة في استخدام الأساليب العسكرية القتالية أو عمليات الفضاء المعلوماتي في حالة الصراع، وهو ما سينتج مجموعة من الآثار التي قد تزعزع الاستقرار الأمني إلى حد كبير، وتؤثر على ديناميكيات الصراع والتصعيد العسكري في المستقبل.
6. تراجع استخدام الوسائل التقليدية في إدارة الصراعات: برز دور الذكاء الاصطناعي في عملية بناء السياسات واتخاذ القرارات، على سبيل المثال تقوم عملية صناعة السياسة الخارجية على بناء مدركات وتصورات ذهنية وتوقعات سياسية حول الذات أو الخصم أو فيما يخص السياقات التي يتضمنها العمل السياسي الخارجي. وهو ما سيؤدي إلى تعديل آليات الدول استنادًا على عنصر المعرفة التي ستعزز من إمكانيات الدول لبناء نماذج وبدائل مختلفة للقرارات والسياسات. وأن الدول التي لم تتسلح بهذه التقنيات ستكون أكثر عرضة للقبول بشروط الدول الأقوى في هذا المجال، خاصة وأن هذه التقنيات تزود الدول بمعلومات عن الأشخاص والمؤسسات بما يبرز نقاط الضعف والقوة في عمليات التفاوض، وتزايد عمليات التنبؤ بالمخاطر، وهو ما يعني تغيير موازين الفاعلة بالإضافة إلى اختراق الدول والمجتمعات وتوجيه الرأي العام الداخلي في هذه الدول بما يتناسب مع أهداف خصومها.
كما سيعزز الذكاء الاصطناعي من كفاءة وتأهيل العاملين في هذه الأجهزة مثل مساعدة المفاوضين الدبلوماسيين عبر توفير المعلومات الفورية والدقيقة، وهو ما يوفر الوقت والجهد في عملية التفاوض، وانطلاقًا من الإدراك بأن وفرة المعلومات والسيطرة عليها وحسن استخدامها ستكون المعايير التي ستحدد أدوات الدول في النظام الدولي وكيفية ممارسة النفوذ والهيمنة في عملية صنع القرارات الدولية وكيفية إدارة سياساتهم الخارجية، فقد عززت تقنيات الذكاء الاصطناعي القدرة على التأثير في صناعة السياسة الخارجية من خلال المساهمة في تحديد أهداف السياسة الخارجية ومقارنتها بالدول الأخرى وتحديد عناصر الاتفاق والاختلاف وأدوات تنفيذها.
على الجانب الآخر، وبرغم هذه المميزات الكبيرة التي أقرها استخدام تقنيات الذكاء الاصطناعي في أوقات الاستقرار إلا إنالدفع نحو إدخال تقنيات الذكاء الاصطناعي بشكل مباشر في المجال العسكري سيؤدي إلى التأثير على اتجاهات استخدام الوسائل السلمية في حل الأزمات خاصة في أوقات الصراع والتوتر، كما إنه مع اتجاه الدول نحو الاعتماد على تطبيقات الذكاء الاصطناعي العسكرية والأسلحة المعززة بتكنولوجيا الذكاء الاصطناعي مثل الأسلحة ذاتية التشغيل أو الأسلحة المستقلة Autonomous weapons وإغفال الأدوات الأخرى في إدارة التفاعلات مع الدول، فإن ذلك قد يفرز العديد من التداعيات الأمنية والتي ستنعكس بشكل أو بآخر على زعزعة استقرار العلاقات بين الدول وتهديد الأمن والسلم العالمي.
في الختام: تعددت تأثيرات إدخال تقنيات الذكاء الاصطناعي في المجال العسكري سواء على الجانب الاستراتيجي واتجاهات ومستويات التخطيط أو فيما يتعلق بالجانب العملياتي وإدارة المعارك والأسلحة؛ حيث برزت مجموعة من المزايا والمخاطر والفرص والقيود حول هذه الاستخدامات. ومن الجدير بالذكر أن هذه الاتجاهات لا تنفي بصورة أو بأخرى التحول إلى استخدام تطبيقات الذكاء الاصطناعي العسكرية في الحروب بمختلف أنواعها مع احتمالية التوسع في الأدوار التي ستلعبها. ولذلك، لابد من الاستعداد والتجهيز والاهتمام بالبنية التحتية الرقمية والعنصر البشري المؤهل والمدرب مع عدم إغفال تطبيق المفاهيم الجديدة للمعايير الأمنية بعدما أحدثت هذه التطورات العديد من التحولات في طبيعة وخصائص التهديدات الأمنية، بل إنها طرحت أشكال جديدة من التهديدات على الساحة الأمنية، وهو ما يتطلب وضع تصورات سياسية وأمنية وقانونية حول الاتجاهات المحتملة لتأثير تقنيات الذكاء الاصطناعي على المعارك والحروب المستقبلية.
المراجع:
1. Baptiste Alloui-Cros, Does Artificial Intelligence Change the Nature of War? Strand Simulations Group, London, England, at: https://www.militarystrategymagazine.com/article/does-artificial-intelligence-change-the-nature-of-war/
2. Zoe Stanley-Lockman, Edward Hunter Christie, An Artificial Intelligence Strategy for NATO, 25 October 2021, at: https://www.nato.int/docu/review/articles/2021/10/25/an-artificial-intelligence-strategy-for-nato/index.html
3. Jieruo Li, Artificial Intelligence Technology and China’s Defense System, Journal of Indo-Pacific Affairs, Air University Press, April 1, 2022, at: https://www.airuniversity.af.edu/JIPA/Display/Article/2980879/artificial-intelligence-technology-and-chinas-defense-system/
4. Linda Lastovych, Artificial Intelligence’s impact on future strategy, 05/14/2021, at: https://www.defenceiq.com/air-land-and-sea-defence-services/articles/artificial-intelligences-impact-on-future-strategy
5. التحولات المتوقعة في حروب المستقبل (حلقة نقاشية)، إنترريجونال للتحليلات الاستراتيجية، 31 مايو، 2023، على الرابط: https://www.interregional.com/future-warfare/
6. يوسف الحداد، التصور الأمريكي الجديد لصراعات وحروب المستقبل، مجلة درع الوطن، 5 يوليو 2021، على الرابط: https://cutt.us/HlJJe
7. أنوم أ. خانأنوم، كيف سيغير الذكاء الصناعي معادلة الردع بين القوى النووية في المستقبل؟ تي أر تي عربي، 10 مارس 2023، على الرابط: https://cutt.us/jL4FD
8. مصطفى شلش، سباق الجيل السادس بين الولايات المتحدة والصين، مركز الدراسات العربية الأوراسية، 8 أبريل 2023، على الرابط: https://eurasiaar.org/article/the-sixth-generation-race-between-the-united-states-and-china/
9. آنو برادفورد، السباق إلى صوغ قوانين عن الذكاء الاصطناعي، موقع اندبندنت عربية، 11 يوليو 2023، على الرابط: https://cutt.us/sIbxh
10. هبه جمال الدين، الأمن السيبراني والتحول في النظام الدولي، مجلة کلية الاقتصاد والعلوم السياسية، المجلد الرابع والعشرون، العدد الأول، القاهرة، يناير 2023، ص ص 202 – 234.
11. برامج عسكرية سرية تعتمد عليه.. كيف سيُحدث الذكاء الاصطناعي ثورة في الحروب البشرية؟، عرب بوست، 12 إبريل 2023، على الرابط: https://cutt.us/sxHzd
12. عقيدة الآلة.. هل يصبح الذكاء الاصطناعي مصدراً للقيم؟، مركز المستقبل للدراسات والأبحاث المتقدمة، 27 ديسمبر 2022، على الرابط: https://cutt.us/z6CwI
13. Forrest E. Morgan, Benjamin Boudreaux, Military Applications of Artificial Intelligence, Ethical Concerns in an Uncertain World, The RAND Corporation, at: https://www.rand.org/pubs/research_reports/RR3139-1.html
14. بيتر شيرمر وجاسمين ليفيلي، الأتمتة العسكرية: كيف تقيس آليات الذكاء الاصطناعي جاهزية الجيوش؟، مركز المستقبل للدراسات والأبحاث المتقدمة، 13 أكتوبر 2021، على الرابط: https://cutt.us/3L36g
15. Kelsey Atherton, Understanding the errors introduced by military AI applications, Brookings Institution, may 6, 2022, at: https://www.brookings.edu/articles/understanding-the-errors-introduced-by-military-ai-applications/

