موظفو عمالقة الذكاء الاصطناعي يصطفّون خلف Anthropic ضد وزارة الدفاع
شهد مجتمع الذكاء الاصطناعي العالمي تطورًا لافتًا بعدما وقّع عشرات الموظفين الحاليين والسابقين في شركات كبرى مثل OpenAI وGoogle على مذكرة «صديق للمحكمة» (Amicus Brief) لدعم شركة Anthropic في نزاع قانوني مع وزارة الدفاع الأمريكية. هذه الخطوة، التي كشفت عنها تقارير من TechCrunch وWired، تعكس انقسامًا غير معتاد داخل وادي السيليكون حول كيفية تعامل الحكومات مع شركات الذكاء الاصطناعي التي تبني نماذج متقدمة يمكن أن تُستخدم في تطبيقات حساسة.
المذكرة لا تدافع عن Anthropic ككيان تجاري بقدر ما تهاجم – من وجهة نظر الموقعين – سابقة خطيرة: تصنيف شركة ذكاء اصطناعي كمصدر «مخاطر على سلسلة الإمداد» دون معايير واضحة أو إجراءات شفافة. هذا التصنيف إذا تم تثبيته قضائيًا قد يفتح الباب أمام استهداف أي مزوّد رئيسي لتقنيات الذكاء الاصطناعي في المستقبل، بما في ذلك OpenAI وGoogle نفسها.
خلفية النزاع: لماذا Anthropic في مواجهة البنتاغون؟
بحسب تقرير TechCrunch، تدور القضية حول قرار لوزارة الدفاع بوضع Anthropic ضمن إطار مخاطر محتملة على سلسلة الإمداد في عقود معينة تتعلق بالبنى التحتية التقنية الحساسة. هذا التصنيف لا يعني حظرًا مباشرًا، لكنه يفرض قيودًا وإجراءات إضافية قد تجعل التعاون مع الشركة أكثر تعقيدًا وتكلفة مقارنة بمنافسين آخرين.
Anthropic، المعروفة بتركيزها على «الذكاء الاصطناعي الآمن» وبناء نماذج لغوية متقدمة، تنظر إلى هذا التصنيف باعتباره إجراءً غير متناسب، وقد يحمّلها تبعات سياسية وتنظيمية تتجاوز حجمها الفعلي في السوق. من جانبها، تدافع وزارة الدفاع عن حقها في تقييم المخاطر ضمن سلاسل الإمداد الرقمية، خاصة فيما يتعلق بالتقنيات القابلة للاستخدام العسكري أو الأمني.
مذكرة «صديق للمحكمة»: عندما يتحد المنافسون
تقرير TechCrunch يشير إلى أن الموقعين على المذكرة ينتمون حاليًا أو سابقًا إلى فرق أساسية في OpenAI وGoogle، بينما يوضح تقرير Wired أن باحثين من DeepMind شاركوا أيضًا في الخطوة. هذا يعني أن نخبة من المهندسين والباحثين الذين يقودون السباق العالمي في الذكاء الاصطناعي اختاروا الوقوف في صف شركة منافسة، في مواجهة واحدة من أقوى المؤسسات الحكومية في العالم.
الموقعون يؤكدون في المذكرة أن:
- تصنيف شركة ذكاء اصطناعي كمخاطر على سلسلة الإمداد يجب أن يستند إلى معايير تقنية واضحة، لا إلى اعتبارات مبهمة أو سياسية.
- الإجراءات غير الشفافة قد تدفع الشركات إلى تقليص الإفصاح عن قدرات نماذجها، خوفًا من تعرّضها لقيود حكومية، ما يضر بالبحث العلمي المفتوح.
- غياب قواعد مستقرة قد يعطّل تطوير تقنيات مفيدة في مجالات الصحة والتعليم والبحث العلمي، بدعوى احتمالات الاستخدام العسكري أو المزدوج.
هذه الرسائل تعكس قلقًا متزايدًا داخل مجتمع الذكاء الاصطناعي من أن تتحوّل قضايا «الأمن القومي» إلى أداة ضغط غير متوقعة على مسار التطوير والابتكار.
التوازن الصعب بين الأمن القومي والابتكار
الولايات المتحدة وغيرها من القوى الكبرى بدأت تتعامل مع نماذج الذكاء الاصطناعي المتقدمة كأصول استراتيجية، تشبه في حساسيتها تقنيات التشفير أو الأقمار الصناعية. تقارير بحثية من مؤسسات مثل MIT وStanford تشير إلى أن النماذج الكبرى يمكن أن تُستخدم في تحسين أنظمة الدفاع، واختبار الهجمات السيبرانية، بل وحتى في أتمتة عمليات تحليل البيانات الاستخباراتية.
في المقابل، يرى خبراء سياسة التقنية أن الاستخدام المزدوج (المدني والعسكري) لا يعني بالضرورة إخضاع كل الشركات الداعمة لهذه التقنيات لنفس مستوى الرقابة، وإلا تحوّل القطاع بالكامل إلى ملحق صناعي للأجهزة الأمنية. هنا تأتي أهمية مذكرة «صديق للمحكمة»؛ فهي تسعى لوضع خط فاصل بين «تنظيم الاستخدامات عالية الخطورة» و«معاقبة مزوّدي البنية التحتية التقنية» بشكل جماعي.
مخاوف الشركات: من التنظيم إلى عدم اليقين
شركات الذكاء الاصطناعي الكبرى لم تعد تخشى التنظيم في حد ذاته، بل عدم اليقين التنظيمي. وجود قواعد واضحة، حتى لو كانت صارمة، يتيح التخطيط والاستثمار طويل المدى. أما القرارات المفاجئة، خاصة عندما تأتي من جهات بحجم وزارة الدفاع، فترسل إشارة مقلقة للمستثمرين والعملاء على حد سواء.
هنا يبرز سؤال أساسي: هل سيتم توسيع مفهوم «مخاطر سلسلة الإمداد» ليشمل مزوّدي نماذج الذكاء الاصطناعي كما يشمل موردي الرقائق والبنى السحابية؟ إذا حدث ذلك دون أطر واضحة، فقد نجد خلال سنوات قليلة أن عددًا كبيرًا من الشركات الناشئة والكبرى على السواء باتت مصنفة كمخاطر محتملة، ما يضع عبئًا قانونيًا وماليًا كبيرًا على القطاع.
مغزى الاصطفاف المهني: إجماع نادر في مجتمع منقسم
مجتمع الذكاء الاصطناعي عادةً ما يكون منقسمًا حول قضايا كثيرة: سرعة التطوير، مخاطر النماذج العامة، حوكمة البيانات، وحتى أساليب التدريب. لكن توحّد أصوات من OpenAI وGoogle وDeepMind خلف Anthropic يعطي انطباعًا بوجود «خط أحمر» مشترك: عدم قبول تصنيفات أمنية مبهمة قد تمتد لأي شركة دون معايير.
بالنسبة للمراقبين، يحمل ذلك دلالة إضافية؛ فهذه الشركات تتنافس على عقود حكومية كبرى، كان من المفترض أن تستفيد تجاريًا من إضعاف منافس مثل Anthropic. ومع ذلك اختارت مجموعة من موظفيها الوقوف على الجانب الآخر من المعادلة، ما يشير إلى أن الدافع هنا مرتبط برؤية أوسع لمستقبل التنظيم، وليس بحسابات سوقية قصيرة المدى.
أصداء هذه التطورات في العالم العربي
رغم أن القضية تدور في الولايات المتحدة، إلا أن نتائجها قد تمتد إلى الأسواق العربية بشكل غير مباشر. معظم حكومات المنطقة تستورد خدمات الذكاء الاصطناعي من مزوّدين عالميين، أو تعتمد على منصاتهم السحابية، ما يعني أن أي تغيّر في طريقة تنظيم هذه الشركات سينعكس على العقود والخدمات المتاحة.
هناك عدة آثار محتملة:
- تشدد في شروط التعاقد: قد تزداد القيود على استخدام نماذج معينة في قطاعات حساسة مثل الطاقة، الاتصالات، أو البنية التحتية الحيوية، خاصة إذا تبنّت الحكومات العربية تصنيفات مشابهة لتلك المستخدمة في الولايات المتحدة والاتحاد الأوروبي.
- فرص لشركات محلية وإقليمية: إذا وُضعت قيود على مزوّدين عالميين بدعوى «مخاطر سلسلة الإمداد»، فقد تبرز مساحة أوسع أمام شركات عربية ناشئة لتقديم حلول محلية متوافقة مع الأطر التنظيمية الداخلية.
- حاجة ملحّة لأطر حوكمة عربية: الاعتماد على تصنيفات أجنبية دون تكييف محلي قد يضر بالسوق، لذلك تبدو الحاجة كبيرة لوضع سياسات عربية واضحة تحدد ما يُعد «مخاطرة» في خدمات الذكاء الاصطناعي، وكيفية تقييمها تقنيًا وقانونيًا.
نحو قواعد أكثر شفافية للتعامل مع مزوّدي الذكاء الاصطناعي
المذكرة التي وقّعها موظفون من OpenAI وGoogle وDeepMind لا تقدّم حلولًا تشريعية جاهزة، لكنها تدفع النقاش باتجاهين واضحين: الشفافية، وإشراك المجتمع المهني في صياغة السياسات. إذا كانت الحكومات تنظر إلى نماذج الذكاء الاصطناعي كأصول استراتيجية، فمن المنطقي أن تستشير أولئك الذين يبنون هذه النماذج لفهم المخاطر والفرص بشكل متوازن.
بالنسبة لصانعي السياسات في المنطقة العربية، تمثل هذه القضية درسًا مبكرًا: تنظيم الذكاء الاصطناعي لا يقتصر على حماية الخصوصية أو منع المحتوى الضار، بل يشمل أيضًا كيفية التعامل مع المزوّدين أنفسهم، ومع سلاسل الإمداد الرقمية التي أصبحت عصبًا للاقتصاد والتعليم والصحة والأمن.
المعادلة الصعبة التي تحاول الحكومات حلّها اليوم يمكن تلخيصها في سؤال واحد: كيف يمكن حماية الأمن القومي دون إطفاء محرك الابتكار؟ الإجابة لن تأتي من طرف واحد؛ بل من حوار مستمر بين الجهات التنظيمية، الشركات، الباحثين، والمجتمعات التقنية المحلية والدولية، وهو الحوار الذي تحاول مذكرة «صديق للمحكمة» أن تفتحه بقوة داخل قلب وادي السيليكون.
المراجع
- TechCrunch
- Wired
- MIT
- Stanford University