خلاف جديد يكشف معركة قديمة حول أخلاقيات الذكاء الاصطناعي
تجدّدت الأسئلة الصعبة حول حدود استخدام الذكاء الاصطناعي في المجال العسكري بعد تقارير عن خلاف متصاعد بين شركة Anthropic، المطوّر لنموذج Claude، ووزارة الدفاع الأمريكية (البنتاغون) بشأن طبيعة الاستخدامات المسموح بها لتقنيات الشركة. التقرير الذي نشره موقع TechCrunch أشار إلى أن Anthropic تضع «خطوطًا حمراء» واضحة أمام بعض السيناريوهات العسكرية، في وقت تسعى فيه وزارة الدفاع إلى توسيع اعتمادها على الذكاء الاصطناعي عبر مبادرات وبرامج تمويلية واسعة.
من هي Anthropic ولماذا تثير مواقفها كل هذا الجدل؟
تُعد Anthropic واحدة من أبرز الشركات الصاعدة في مجال الذكاء الاصطناعي التوليدي، تنافس نماذج كبرى مثل ChatGPT من OpenAI وGemini من Google. تأسست الشركة عام 2021 على يد باحثين سابقين في OpenAI، وركّزت منذ البداية على ما تصفه بـ«الذكاء الاصطناعي القابل للتفسير والآمن»، مع تركيز واضح على الجوانب الأخلاقية والتنظيمية.
هذا التركيز جعلها في موقع مختلف عن كثير من الشركات التي تتسابق على توقيع عقود حكومية ضخمة، بما في ذلك عقود دفاعية. فبينما تنظر وزارات الدفاع حول العالم إلى الذكاء الاصطناعي كأداة استراتيجية لا يمكن تجاهلها، تحاول شركات مثل Anthropic وضع حدود لما ترى أنه «استخدام غير مسؤول» أو عالي المخاطر لتقنياتها.
جوهر الخلاف: أين ترسم الحدود بين «الدفاع» و«التسليح»؟
بحسب تقرير TechCrunch، الخلاف بين Anthropic ووزارة الدفاع الأمريكية لا يدور حول مبدأ التعاون من حيث الأصل، بل حول طبيعة الحالات التي يُسمح فيها باستخدام نموذج Claude داخل مؤسسات عسكرية. الشركة تشترط عدم استخدام نموذجها في:
- إدارة أو توجيه أنظمة أسلحة ذاتية التشغيل
- اتخاذ قرارات قاتلة أو شبه قاتلة دون إشراف بشري مباشر وفعّال
- تطوير أسلحة بيولوجية أو كيميائية أو سيبرانية هجومية متقدمة
في المقابل، تبدي Anthropic انفتاحًا أكبر تجاه تطبيقات تصنّفها بأنها «دفاعية أو إنسانية»، مثل أنظمة الإنذار المبكر، وتحليل المخاطر، ودعم الفرق الطبية أو الإغاثية في مناطق النزاع، بشرط وجود آليات رقابة صارمة واختبارات أمان واضحة.
ضغوط البنتاغون وسياق سباق التسلّح التقني
وزارة الدفاع الأمريكية تستثمر مليارات الدولارات في الذكاء الاصطناعي عبر برامج مثل JAIC ومبادرات أخرى تسعى لدمج الخوارزميات الذكية في كل شيء، من إدارة اللوجستيات إلى تشغيل طائرات بدون طيار. هذا التوجّه لا ينفصل عن سباق عالمي واضح، خاصة مع الصين وروسيا، لتطوير قدرات عسكرية مدعومة بالبيانات والخوارزميات.
من هذه الزاوية، تريد البنتاغون مرونة أكبر في استخدام نماذج الشركات الخاصة، بما في ذلك Anthropic، مع الاحتفاظ بقدرتها على توظيف الذكاء الاصطناعي في سيناريوهات عالية الحساسية. لكن هذه الرغبة تصطدم برؤية الشركة التي تراهن على سمعة طويلة المدى قائمة على «عدم التورّط في قرارات قتل آلية» أو تطوير ما قد يتحوّل إلى جيل جديد من الأسلحة الذاتية.
هذا التوتر يعكس سؤالًا أوسع: هل يمكن ترك ضبط استخدامات الذكاء الاصطناعي العسكري لاتفاقات ثنائية بين حكومات وشركات، أم أن العالم بحاجة إلى قواعد شبه دولية شبيهة بضوابط الأسلحة النووية والكيميائية؟
صناعة كاملة تعيد رسم علاقتها بالجيوش
الخلاف الحالي لا يخص Anthropic وحدها. خلال السنوات الماضية، واجهت شركات تقنية كبرى جدلًا مشابهًا؛ فقد سبق أن أثار مشروع Maven الذي تعاونت فيه Google مع وزارة الدفاع الأمريكية موجة احتجاجات داخلية دفعت الشركة إلى الانسحاب من بعض الجوانب المثيرة للجدل في المشروع، وإصدار مبادئ توجّه عملها في المجال العسكري.
كما أن OpenAI نفسها عدّلت سياساتها أكثر من مرة بشأن الاستخدامات العسكرية، مع استمرار نقاش داخلي وخارجي حول ما إذا كان «الدعم الدفاعي» يمكن فصله حقًا عن «الاستخدام الهجومي» في واقع معقّد ومتداخل.
بهذا المعنى، يتحوّل موقف Anthropic إلى جزء من حراك أوسع في وادي السيليكون، حيث تحاول بعض الشركات رسم صورة لنفسها كشريك «مشروط» للجيوش والحكومات، وليس منفذًا مطلقًا لكل أنواع الطلبات.
ما بين أخلاقيات الشركات وقرارات الدول
يرى بعض الخبراء أن ترك تحديد «الخطوط الحمراء» للشركات وحدها أمر خطِر؛ لأن هذه الشركات تخضع في النهاية لمصالح تجارية واستثمارية، وقد تغيّر سياساتها تحت ضغط السوق أو المساهمين أو الحكومات. في المقابل، يُذكِّر آخرون بأن غياب تشريعات دولية واضحة يجعل مبادرات الشركات نقطة البداية الوحيدة المتاحة، مهما كانت محدودة.
منظمة العفو الدولية، ومراكز بحثية في جامعات مثل MIT وStanford، حذّرت في تقارير مختلفة من الانزلاق نحو «أسلحة ذاتية القرار» تتخذ قرارات قتل دون رقابة بشرية حقيقية. المنظمة الأممية لم تحسم بعد إطارًا ملزمًا في هذا المجال، لكن الضغط يتزايد لوضع معاهدة دولية لتنظيم الأسلحة المستقلة.
موقف Anthropic، كما تنقله التقارير، يبدو محاولة لتثبيت قاعدة عملية: النماذج التوليدية العامة لا يجب أن تصبح «عقلًا مركزيًا» لأنظمة قتل ذاتية، حتى لو كان استخدامها في مهام دعم قرار منخفضة الخطورة أمرًا مطروحًا. هذه الرسالة لا تستهدف البنتاغون وحده، بل أيضًا أي مؤسسة تسعى لاستغلال قدرات النماذج المتقدمة في سياقات عسكرية غير خاضعة للمساءلة.
في النهاية، يعبّر الخلاف بين Anthropic ووزارة الدفاع الأمريكية عن لحظة تحوّل حقيقية: الذكاء الاصطناعي لم يعد مجرد أداة برمجية بل أصبح عنصرًا استراتيجيًا في معادلة القوة، يفرض على الشركات والحكومات والجمهور طرح أسئلة غير مريحة حول من يملك الحق في برمجة «حدود المسموح» في ساحة الحرب.