Anthropic تحت مجهر البنتاغون: أزمة تصنيف تهدد العقود الكبرى
تجد شركة Anthropic الأمريكية، إحدى أبرز اللاعبين الجدد في مجال نماذج الذكاء الاصطناعي التحادثي، نفسها في مواجهة غير مريحة مع وزارة الدفاع الأمريكية (البنتاغون). السبب ليس خللًا تقنيًا أو فضيحة بيانات، بل إدراج الشركة ضمن قائمة تتعلق بـ«مخاطر سلسلة الإمداد»، وهو تصنيف إداري قد يبدو بيروقراطيًا للوهلة الأولى، لكنه يحمل في طياته آثارًا مالية ضخمة قد تمتد إلى مليارات الدولارات، وفقًا لتقرير حديث نشره موقع Wired.
ما الذي حدث بالضبط بين Anthropic ووزارة الدفاع؟
بحسب Wired، أُبلغت Anthropic بأنها مصنفة ضمن قائمة مرتبطة بمخاطر سلسلة الإمداد لدى وزارة الدفاع الأمريكية. هذا النوع من القوائم يُستخدم عادة لمراقبة الشركات التي يُحتمل أن تشكل مخاطرة على الأمن القومي أو على موثوقية سلاسل الإمداد الحساسة، خاصة في القطاعات المتقدمة مثل أشباه الموصلات والاتصالات والبرمجيات ذات الاستخدام المزدوج المدني والعسكري.
تؤكد الشركة أن هذا التصنيف غير دقيق وغير عادل، وأنه إذا استمر دون تعديل فقد يحد من قدرتها على إبرام عقود مع جهات حكومية أمريكية، بل وحتى مع شركات خاصة كبرى تتحسس بشدة من أي إشارة سلبية قادمة من البنتاغون أو الأجهزة التنظيمية. Anthropic حذّرت، وفق التقرير، من أن الأثر المالي المحتمل قد يصل إلى مستوى «المليارات»، في وقت تعتمد فيه شركات الذكاء الاصطناعي الناشئة على العقود الضخمة لضمان استدامة نماذج أعمالها وكلفة تشغيل البنى التحتية السحابية الهائلة.
لماذا تعتبر القوائم الحكومية أخطر من المنافسين؟
في عالم التقنية المتسارع، المنافسة القوية أمر متوقع، لكن ما تخشاه الشركات في وادي السيليكون أكثر من غيره هو أن تصبح «موسومة» من جهة تنظيمية أو أمنية. مجرد ورود اسم شركة في قائمة مرتبطة بالمخاطر، حتى وإن لم يكن هناك حظر مباشر أو عقوبات صريحة، يخلق حالة من التردد لدى الشركاء والمستثمرين المحتملين، ويثير تساؤلات حول استدامة العلاقة معها على المدى الطويل.
شركات الذكاء الاصطناعي بالذات تعتمد على نوعين من الزبائن لتأمين إيراداتها:
- الحكومات والمؤسسات العامة التي تبحث عن نماذج متقدمة لدعم التحليل، والدفاع، والخدمات الرقمية.
- الشركات الكبرى في القطاعات المالية والصحية والصناعية، التي تحتاج لنماذج مستقرة ومطابقة للمعايير التنظيمية.
أي إشارة من البنتاغون إلى أن شركة ما قد تشكل «مخاطرة» في سلسلة الإمداد يمكن أن تدفع هذه الأطراف للبحث عن بدائل أقل إثارة للجدل، حتى لو لم تُفرض عليهم قيود قانونية مباشرة. وهذا تحديدًا ما يدفع Anthropic إلى دق ناقوس الخطر حيال مصير عقود مستقبلية قد تُلغى أو لا تُوقَّع من الأساس.
سياق أوسع: الذكاء الاصطناعي بين الأمن القومي والاقتصاد
التوتر بين شركات التقنية والجهات الحكومية ليس جديدًا. شركات مثل Huawei في الصين، وKaspersky في روسيا، وحتى شركات أمريكية تعمل في مجال المراقبة والبيانات، واجهت سابقًا قرارات تقييد أو حظر من بعض الحكومات بحجة الأمن القومي. الجديد اليوم هو انتقال هذه الحساسية إلى قلب سباق الذكاء الاصطناعي التوليدي.
الولايات المتحدة ترى نماذج الذكاء الاصطناعي المتقدمة كأصول استراتيجية لا تقل أهمية عن الأقمار الصناعية أو التقنيات النووية. هذا يعني رقابة أعلى، واشتراطات أكثر صرامة على الشركات التي تطور هذه النماذج أو توفرها لجهات خارجية، خاصة إذا كانت هناك مخاوف – حتى لو نظرية – من إساءة الاستخدام أو التسرب التقني.
في هذا المناخ، أي خلاف إداري أو سوء فهم تنظيمي قد يتحول سريعًا إلى تهديد حقيقي لنمو شركة ناشئة، مهما كان تمويلها أو مستوى تقنياتها. Anthropic، التي تنافس نماذج OpenAI وGoogle، تحتاج إلى إظهار صورة «الشريك الموثوق» أمام الحكومات والشركات، وأي تصنيف رسمي من البنتاغون يعمل عكس ذلك تمامًا.
لماذا قد تصل الخسائر إلى «مليارات»؟
تشغيل نماذج اللغة الكبيرة (LLMs) يتطلب استثمارات ضخمة في البنى التحتية السحابية ووحدات المعالجة المتقدمة (GPU). وفق تقارير من The New York Times وReuters وغيرها، تكاليف تدريب وتشغيل نموذج متقدم واحد قد تصل إلى مئات ملايين الدولارات. الشركات تغطي هذه التكاليف عبر:
- عقود ترخيص على مستوى المؤسسات (Enterprise Licensing).
- شراكات طويلة الأجل مع مزودي سحابة وحكومات.
- منتجات SaaS تعتمد على اشتراكات ضخمة.
إذا تضررت فرصة Anthropic في الفوز بعقود حكومية أمريكية، أو إذا أصبحت بعض الشركات الكبرى أقل حماسًا للتعامل معها خوفًا من أي تعقيدات تنظيمية مستقبلية، فقد تخسر الشركة صفقات سنوية بمئات الملايين، تتراكم على عدة سنوات لتتحول إلى خسائر بمليارات.
إضافة إلى ذلك، تصنيفات مثل «مخاطر سلسلة الإمداد» قد تؤثر غير مباشرة على ثقة المستثمرين. شركات الذكاء الاصطناعي لا تزال بحاجة مستمرة لتمويلات جديدة لتوسيع مراكز البيانات وتحسين النماذج. أي غموض في علاقتها مع الحكومة قد ينعكس في تقييمها السوقي وفي قدرتها على جذب جولات استثمار جديدة بشروط مريحة.
انعكاسات على سباق الذكاء الاصطناعي العالمي
الخلاف بين Anthropic والبنتاغون لا يخص الشركة وحدها؛ بل يسلط الضوء على واقع جديد في سباق الذكاء الاصطناعي العالمي: من يريد أن يكون لاعبًا رئيسًا في هذا المجال لا يكفيه امتلاك نموذج قوي أو تمويل ضخم، بل يحتاج أيضًا إلى «هندسة علاقات» دقيقة مع الحكومات والجهات التنظيمية.
الولايات المتحدة وأوروبا بدأت بالفعل في صياغة أطر تشريعية لتنظيم الذكاء الاصطناعي، مثل قانون الذكاء الاصطناعي الأوروبي (EU AI Act). الصين من جهتها تفرض ضوابط صارمة على النماذج المنشورة أمام الجمهور. في هذا السياق، الصدامات أو سوء الفهم بين الشركات والجهات الحكومية قد يصبح مشهدًا متكررًا، خاصة في الملفات التي تمس قضايا الأمن القومي، وحماية البيانات، والتحكم في التصدير التقني.
أين تقف المنطقة العربية من هذه التطورات؟
بالنسبة للمنطقة العربية، تحمل هذه القضية عدة رسائل مهمة لصنّاع القرار والشركات الناشئة على حد سواء. العديد من الدول الخليجية والعربية تستثمر اليوم مليارات الدولارات في مراكز بيانات، وحوسبة سحابية، وتوطين نماذج ذكاء اصطناعي، وتوقيع شراكات مع عمالقة التقنية العالميين.
هناك ثلاثة أبعاد أساسية تبدو ذات صلة مباشرة بما يحدث مع Anthropic:
- تنويع الشركاء: الاعتماد على مزود واحد للذكاء الاصطناعي أو السحابة يحمل مخاطرة، خاصة إذا كان هذا المزود عرضة لضغوط سياسية أو تنظيمية في بلده الأم. تنويع الشركاء، وتبني نماذج مفتوحة المصدر أو محلية، يقللان من هشاشة «سلاسل الإمداد الرقمية» عربيًا.
- إطار تنظيمي واضح: دول المنطقة بحاجة لقوانين وتنظيمات للذكاء الاصطناعي تجمع بين حماية الأمن القومي ودعم الابتكار. غياب الوضوح التنظيمي قد يثني شركات عالمية عن الاستثمار، أو يعرّض الشركات المحلية لمخاطر مفاجئة.
- الاستثمار في القدرات المحلية: الاعتماد الكامل على نماذج أجنبية متقدمة يضع الحكومات والشركات العربية في موقع المتلقي فقط. تطوير نماذج مكيّفة للغة العربية وخصوصيات المنطقة يخلق مساحة من الاستقلالية، ويخفف من آثار أي خلافات تنظيمية دولية مشابهة لأزمة Anthropic.
هل يمكن احتواء الأزمة؟
من الناحية العملية، غالبًا ما تنتهي مثل هذه الخلافات بمفاوضات وتسويات هادئة بين الشركات والجهات الحكومية، خاصة عندما تكون الشركة أمريكية وذات أهمية استراتيجية في مجال حساس كحقل الذكاء الاصطناعي. تعديل التصنيف أو توضيح نطاقه قد يكون كافيًا لتقليل المخاطر على Anthropic وإعادة طمأنة الشركاء.
لكن الرسالة الأعمق التي يكشفها هذا النزاع هي أن مستقبل شركات الذكاء الاصطناعي لن يُحسم فقط في مراكز البيانات ومعامل البحث، بل أيضًا في مكاتب المحامين والاستشاريين والمنظمين. من يتجاهل هذه الحقيقة قد يجد نفسه خارج السباق، حتى لو كان يمتلك واحدًا من أقوى النماذج التقنية في العالم.