ذكاء اصطناعي في قلب المعركة
لم يعد حضور الذكاء الاصطناعي في الجيوش العالمية مقتصراً على تحليل صور الأقمار الصناعية أو مراقبة الهجمات السيبرانية. تشير تقارير حديثة إلى أن نموذج المحادثة “كلود” (Claude) من شركة Anthropic دخل عملياً إلى غرف العمليات العسكرية الأمريكية، من مطاردة الرئيس الفنزويلي السابق نيكولاس مادورو إلى المساعدة في توجيه ضربات واسعة ضد أهداف داخل إيران.
هذا التحول ينقل نماذج المحادثة من خانة “مساعد ذكي” يكتب البريد الإلكتروني ويقترح وصفات الطعام، إلى مستوى لاعب مباشر في اتخاذ قرارات تتصل بالحرب والسلم، ولو من وراء الشاشات.
من تطبيق مكتبي إلى أداة استهداف عسكري
بحسب تقرير لصحيفة Wall Street Journal، اعتمدت القيادة المركزية الأمريكية على “كلود” في مهام تشمل التقييمات الاستخباراتية، وتحديد الأهداف، ومحاكاة سيناريوهات المعارك خلال الضربات التي نُفذت ضد إيران. هذه ليست مجرد عمليات مساندة تقنية؛ بل هي أدوار قريبة جداً من صميم عملية اتخاذ القرار العسكري.
التقرير يشير إلى أن “كلود” استُخدم لمساعدة المحللين في غربلة كميات ضخمة من البيانات الاستخباراتية، وتحويلها إلى توصيات قابلة للاستخدام العملياتي بسرعة أكبر بكثير من قدرة الفرق البشرية وحدها.
مفارقة سياسية: استخدام مكثّف قبل الحظر
المثير أن هذا الاعتماد العسكري على “كلود” جاء قبل ساعات فقط من إصدار الرئيس الأمريكي دونالد ترامب أمراً تنفيذياً يلزم الوكالات الفيدرالية بالتوقف عن استخدام تقنيات شركة Anthropic، مع فرض عقوبات إضافية عليها في ظل نزاع علني بين الشركة والحكومة حول معايير أمان الذكاء الاصطناعي.
تقرير لوكالة Bloomberg أوضح أن أنظمة Anthropic كانت مدمجة بعمق في بنية البنتاغون الرقمية، إلى درجة أن فصلها واستبدالها قد يستغرق أشهراً، ما يعني أن القرار السياسي سبق جاهزية البنية التكنولوجية البديلة. هذا التناقض يعكس فجوة متزايدة بين سرعة تطور أدوات الذكاء الاصطناعي من جهة، وبطء الإطار التنظيمي والسياسي من جهة أخرى.
كلود واعتقال مادورو: الذكاء الاصطناعي في العمليات السرية
تضيف بلومبرغ أن “كلود” استُخدم أيضاً في العملية التي انتهت باعتقال الرئيس الفنزويلي السابق نيكولاس مادورو في يناير/كانون الثاني، عبر دعم التحليل الاستخباراتي ومتابعة أنماط الحركة والاتصالات وتقييم السيناريوهات المحتملة للعملية.
لم تُكشف التفاصيل الكاملة للمهام التي نفذها الذكاء الاصطناعي، لكن مجرد ذكر اسمه في سياق عملية بهذا الحجم يوضح حجم الاختراق الذي حققته هذه النماذج للطبقات الأعمق من العمل الأمني والعسكري.
من مافين إلى كلود: جيل جديد من أنظمة الاستهداف
الذكاء الاصطناعي في الحروب ليس جديداً بالكامل. برنامج Maven الذي تطوره شركة Palantir يشكل منذ سنوات ركيزة أساسية في أنظمة الاستهداف الأمريكية، عبر تحليل بيانات مصنّفة من الأقمار الصناعية وأجهزة المراقبة ومصادر استخباراتية أخرى، ثم توليد رؤى تساعد في اختيار الأهداف.
صحيفة Washington Post كشفت أن نظام الاستهداف المعتمد على الذكاء الاصطناعي، المعروف باسم Maven Smart System، لعب دوراً محورياً في توجيه ضربة كبيرة شملت نحو ألف هدف في الساعات الأربع والعشرين الأولى من الهجوم على إيران، عن طريق ترتيب أولويات الأهداف وتحديد الإحداثيات بدقة.
بحسب الصحيفة، جرى دمج “كلود” مع “مافين” لتشكيل طبقة إضافية من الفهم اللغوي والتحليلي، بحيث يستطيع العسكريون محاورة النظام بلغة طبيعية: طرح أسئلة معقدة، طلب مقارنة سيناريوهات، أو مراجعة احتمالات الخسائر والتداعيات بسرعة، بدلاً من التعامل حصراً مع واجهات تقليدية أو تقارير جامدة.
مصادر مطلعة نقلت للصحيفة أن أداء “كلود” تطور بشكل ملحوظ حين دُمج مع Maven، إلى أن أصبح أداة تُستخدم يومياً في معظم قطاعات الجيش الأمريكي، وليس في العمليات الكبرى فقط.
ما الذي يفعله الذكاء الاصطناعي فعلاً في ساحة القتال؟
بارمي أولسون، الكاتبة المتخصصة في شؤون التكنولوجيا لدى Bloomberg، تشير إلى أن أدوار الذكاء الاصطناعي في هذه العمليات ما تزال محاطة بالسرية، ولا يُعرف بدقة إن كان يقتصر على تقييم المعلومات، أم يمتد لتحديد الأهداف وترتيبها وإبداء تقديرات بشأن الخسائر البشرية المتوقعة.
الاستخدام العسكري للذكاء الاصطناعي ليس جديداً في ذاته؛ فقد سبق أن استُخدم في:
- تحليل صور الأقمار الصناعية لرصد تحركات القوات.
- الكشف عن الهجمات السيبرانية والتصدي لها.
- توجيه أنظمة الدفاع الصاروخي واكتشاف الصواريخ المعادية.
الجديد هو إدخال روبوتات المحادثة إلى هذه المنظومة. هذا النوع من النماذج لا يكتفي بالحساب والتحليل، بل يقدم توصيات بصيغة لغوية قريبة من البشر، ما يجعلها أكثر تأثيراً نفسياً في متخذ القرار، ويزيد المخاوف من ميل القادة للاعتماد عليها كـ”رأي خبير” حتى حين تكون تقديراتها مبنية على بيانات ناقصة أو متحيزة.
مقارنة مع حقبة الطائرات المسيّرة
تستعيد أولسون تجربة الطائرات المسيّرة التي بدأت بقوة بعد هجمات 11 سبتمبر/أيلول، ثم توسعت في عهد الرئيس الأسبق باراك أوباما، مع إنكار رسمي طويل لمدى انتشار برنامج الاغتيالات بالطائرات بدون طيار. احتاج الأمر إلى نحو 15 عاماً من التسريبات والضغط الحقوقي والتغطية الصحفية، قبل أن تنشر إدارة أوباما عام 2016 أرقاماً رسمية عن ضحايا تلك الضربات، والتي اعتُبرت أقل من الواقع لكنها مثلت خطوة نحو المحاسبة.
اليوم، يخشى كثير من الخبراء أن يتكرر السيناريو نفسه مع الذكاء الاصطناعي: استخدام واسع في الظل، مع تأخير لسنوات قبل كشف حجم الاعتماد عليه وحجم الأخطاء التي قد يقع فيها، سواء في اختيار الأهداف أو تقدير الخسائر الجانبية.
مسؤولية الشركات قبل الجيوش
شركات الذكاء الاصطناعي الكبرى، ومنها Anthropic، تقدّم نفسها عادة بوصفها حريصة على “السلامة” و”تقليل المخاطر”. لكن تقارير وول ستريت جورنال وبلومبرغ وواشنطن بوست تكشف أن منتجاتها وصلت بالفعل إلى قلب عمليات الاستهداف العسكري، في لحظة لا تزال فيها قواعد استخدام هذه الأنظمة محل نزاع حتى داخل الولايات المتحدة.
هذا يفتح الباب أمام أسئلة صعبة: هل تستطيع الشركات فعلاً فرض قيود على كيفية استخدام نماذجها بعد دمجها في منظومات عسكرية؟ أم أن منطق سوق السلاح والتحالفات السياسية سيبقى أقوى من أي مبادئ معلنة عن الاستخدام المسؤول؟
ما يبدو واضحاً أن “كلود” وأمثاله لن يبقوا طويلاً أدوات للكتابة وتلخيص المستندات فقط. وجودهم في غرف العمليات وغرف الأخبار وغرف الاجتماعات بات حقيقة، والسؤال لم يعد إن كانوا سيستخدمون عسكرياً، بل كيف، وبأي ضوابط، ومن سيتحمل المسؤولية عندما تخطئ الخوارزمية في تقدير هدف واحد فقط.