OpenAI تدخل رسمياً عالم التكنولوجيا العسكرية
في يونيو 2025 حصلت شركة OpenAI على عقد ضخم بقيمة 200 مليون دولار من وزارة الدفاع الأميركية (البنتاغون)، يمتد لعام واحد، لتزويد المؤسسة العسكرية بأدوات ذكاء اصطناعي توليدي. هذه الصفقة تمثل انتقالاً واضحاً للشركة من التركيز على الاستخدامات المدنية والتجارية إلى حضور مباشر داخل قطاع الدفاع، بما يحمله ذلك من فرص اقتصادية وتساؤلات أخلاقية وجيوسياسية.
تفاصيل العقد: ماذا يريد البنتاغون من OpenAI؟
بحسب ما نقلته عدة تقارير تقنية وإخبارية أميركية، يهدف العقد إلى إتاحة قدرات النماذج اللغوية التوليدية داخل أنظمة وزارة الدفاع، لاستخدامها في:
- تحليل كميات ضخمة من التقارير والوثائق الاستخباراتية بسرعة أكبر.
- مساعدة فرق العمليات في إعداد ملخصات للمعلومات الميدانية.
- دعم عمليات المحاكاة والتخطيط عبر توليد سيناريوهات مختلفة.
- تطوير واجهات حوارية تسهّل على الجنود والموظفين غير التقنيين التعامل مع أنظمة معقدة.
لا توجد تفاصيل علنية كاملة حول نطاق الاستخدامات الدقيقة، بحكم طبيعة العقود الدفاعية التي تخضع غالباً لدرجات مختلفة من السرية. إلا أن المؤشرات الأولية توحي بأن التركيز الحالي يدور حول تحليل البيانات والدعم اللوجستي واتخاذ القرار، أكثر من ارتباطه المباشر بأنظمة أسلحة ذاتية التشغيل.
من شركة بحثية إلى لاعب في الأمن القومي
منذ إطلاق ChatGPT أواخر 2022، تحوّلت OpenAI من مختبر بحثي إلى شركة محورية في سباق الذكاء الاصطناعي العالمي. دخولها على خط العقود العسكرية الأميركية يرسّخ موقعها كأداة استراتيجية للولايات المتحدة في مواجهة تنافس متصاعد مع الصين وقوى أخرى في مجال التقنيات المتقدمة.
وزارة الدفاع الأميركية أعلنت في السنوات الأخيرة خططاً لتسريع تبنّي تقنيات الذكاء الاصطناعي عبر مبادرات مثل Chief Digital and Artificial Intelligence Office، مع تركيز على تسريع اتخاذ القرار في ساحات القتال وتحسين إدارة الموارد. التعاون مع شركة تمتلك نماذج لغوية متقدمة يمنح البنتاغون طبقة جديدة من قدرات التحليل الآلي، فوق ما كانت توفره أنظمة الذكاء الاصطناعي التقليدية التي تعتمد على خوارزميات أكثر تخصصاً وأقل مرونة.
الأبعاد الأخلاقية: من تعهّد «الاستخدام المسؤول» إلى صفقات دفاعية
ارتبط اسم OpenAI منذ بداياته بشعار تطوير ذكاء اصطناعي «آمن ومفيد للبشرية». لذلك يثير دخولها إلى العقود العسكرية نقاشاً واسعاً بين الباحثين والناشطين الرقميين حول كيفية التوفيق بين هذا الشعار واستخدامات قد تمتد إلى سياق حربي.
منظمات حقوقية وخبراء أخلاقيات التكنولوجيا يحذّرون من انزلاق الذكاء الاصطناعي التوليدي نحو أدوار تتجاوز التحليل واللوجستيات، باتجاه دعم أنظمة أسلحة أو قرارات قاتلة، حتى لو كان ذلك على المدى المتوسط أو البعيد. كما تُطرح أسئلة حول شفافية هذه العقود، وآليات الرقابة المدنية والبرلمانية على استخدام الذكاء الاصطناعي في مجالات تمسّ الحياة والموت.
على الجانب الآخر، يدافع مؤيدو هذه الخطوة عن فكرة أن تجاهل قطاع الدفاع سيترك المجال مفتوحاً لشركات أو دول أقل التزاماً بالمعايير الأخلاقية، وأن إشراك الشركات الكبرى التي تخضع لضغوط إعلامية وتشريعية قد يسهم في وضع ضوابط أكثر صرامة.
سباق عالمي على الذكاء الاصطناعي العسكري
استخدام الذكاء الاصطناعي في المجال العسكري ليس جديداً. الولايات المتحدة، الصين، روسيا، ودول أخرى تستثمر منذ سنوات في أنظمة تحليل صور الأقمار الصناعية، والطائرات المسيرة، وأنظمة الدفاع الصاروخي الذكية. الجديد اليوم هو دخول الذكاء الاصطناعي التوليدي، القادر على فهم النصوص وإنتاجها، إلى هذا السياق.
تقارير مثل تلك الصادرة عن RAND Corporation وBrookings Institution تشير إلى أن الجيوش تسعى لاستغلال النماذج اللغوية في:
- تحليل الحملات الإعلامية والحرب المعلوماتية على وسائل التواصل الاجتماعي.
- مساعدة الدبلوماسيين والمحللين في تقييم مواقف الخصوم والحلفاء.
- تسريع ترجمة الوثائق والمستندات الأجنبية ذات الحساسية الأمنية.
عقد OpenAI مع البنتاغون يأتي في قلب هذا السياق، ويعطي إشارة لبقية اللاعبين العالميين بأن الذكاء الاصطناعي التوليدي سيصبح جزءاً من البنية التحتية الأمنية للدول الكبرى.
آراء خبراء: بين الحذر والواقعية
عدد من الباحثين في سياسات التكنولوجيا يرون أن الخط الفاصل بين «المدني» و«العسكري» في الذكاء الاصطناعي أصبح ضبابياً. النموذج اللغوي نفسه يمكن استخدامه في خدمة العملاء أو في غرفة عمليات عسكرية، والفرق يكمن في البيانات وطريقة الدمج مع أنظمة أخرى.
خبراء الأمن السيبراني يشيرون أيضاً إلى أن إدخال نماذج توليدية في بنية الدفاع الأميركية يخلق تحديات جديدة، فهذه النماذج قد تتعرض لهجمات تهدف إلى تضليلها أو إدخال بيانات خبيثة في ما يعرف بهجمات “تسميم البيانات”، ما يفرض طبقات أمان إضافية وإجراءات تحقق بشرية مستمرة.
في المقابل، هناك من يعتقد أن تجاهل الذكاء الاصطناعي التوليدي في القطاع الدفاعي لم يعد خياراً واقعياً، وأن السؤال الأهم لم يعد “هل يجب استخدامه؟” بل “كيف يمكن استخدامه بأقل قدر ممكن من المخاطر وبأعلى مستوى من الضوابط؟”.
تحديات أمام OpenAI والحكومات حول العالم
على المدى القريب، سيُختبر مدى قدرة OpenAI على الموازنة بين مصالحها التجارية، وضغوط المساهمين والشركاء، والتزاماتها الأخلاقية المُعلنة. كما ستُختبر قدرة الحكومات على وضع أطر تنظيمية خاصة بالاستخدام العسكري للذكاء الاصطناعي، تختلف عن الأطر الخاصة بالاستخدامات المدنية والتجارية.
من المتوقع أن تزداد الدعوات في الولايات المتحدة وأوروبا لوضع معايير دولية تنظم استخدامات الذكاء الاصطناعي في الحروب، على غرار الاتفاقيات المتعلقة بالأسلحة الكيميائية والبيولوجية. لكن الوصول إلى توافق عالمي في ظل التنافس الحالي لن يكون مهمة سهلة.
بالنسبة لصنّاع القرار في المنطقة العربية، متابعة مثل هذه العقود ليست ترفاً إخبارياً، بل ضرورة لفهم إلى أين يتجه العالم، وكيف يمكن الاستثمار في الذكاء الاصطناعي بما يخدم التنمية والأمن معاً، دون الانجرار إلى سباقات تسلّح تقنية غير محسوبة.