الذكاء الاصطناعي يدخل مجال التنبؤ بالاضطرابات السياسية
الذكاء الاصطناعي لم يعد حكرًا على توصية الأفلام أو تحسين الإعلانات الرقمية. خلال الأعوام الأخيرة بدأ يتسلل إلى واحد من أكثر المجالات حساسية: التنبؤ بالنزاعات والاضطرابات السياسية قبل وقوعها. هذه التقنيات، التي طُوّرت في الأصل لمساعدة الحكومات والمنظمات الدولية على منع الحروب والأزمات الإنسانية، قد تتحول بسهولة إلى أداة رصد مبكر للاحتجاجات ومراقبة المعارضين، خاصة في الأنظمة السلطوية.
الفكرة الأساسية بسيطة نظريًا: جمع كمّ ضخم من البيانات التاريخية، ثم استخدام خوارزميات التعلّم الآلي لاكتشاف أنماط خفية تشير إلى ارتفاع خطر اندلاع العنف أو الاضطرابات. لكن حين تنتقل هذه الأدوات من مكاتب الباحثين إلى غرف القرار الأمني، يبدأ السؤال المقلق: من يملك القدرة على التنبؤ، ومن يقرر كيف يستخدم هذه القدرة؟
كيف تعمل أنظمة التنبؤ بالنزاعات؟
أنظمة التنبؤ المدعومة بالذكاء الاصطناعي تعتمد على دمج مصادر بيانات عديدة في نموذج واحد. من بين هذه المصادر:
- تقارير إعلامية محلية ودولية وتحليلات صحفية متراكمة عبر سنوات.
- بيانات من منظمات متخصصة في رصد النزاعات مثل ACLED وبرنامج بيانات النزاعات في جامعة أوبسالا.
- مؤشرات اقتصادية كالتضخم، والبطالة، ونسب الفقر، وتقلّبات الأسعار.
- بيانات ديموغرافية وصحية مثل معدلات وفيات الأطفال الرضّع وتوزيع السكان.
- أحيانًا بيانات اتصال وحركة، مثل سجلات مكالمات الهواتف المحمولة المجهَّلة إحصائيًا، أو بيانات حركة الطيران والتنقّل.
الشرط الأساسي هو توفر قاعدة بيانات تاريخية تمتد لسنوات، بل لعقود، تسمح للنماذج بالتعرّف على أنماط تتكرر قبيل اندلاع النزاعات أو الاحتجاجات الواسعة. كريستوفر راو، أستاذ العلوم الاقتصادية وعلوم البيانات في جامعة كامبريدج والمؤسس المشارك لمنظمة Conflict Forecast، يصف هذه النماذج بأنها أدوات للتعرف على «إشارات جديدة ودقيقة لمخاطر وقوع نزاعات في دول لا تخوض حروبًا حاليًا».
موقع Conflictforecast.org يقدّم مثالًا بصريًا على ذلك؛ خريطة عالمية تلوّن الدول حسب مستوى خطر النزاع المسلح، من الرمادي للخطر المنخفض إلى الأحمر الداكن للخطر المرتفع. هذه الخرائط ليست تنبؤًا فرديًا بحدث محدد، بل تقديرات احتمالية مبنية على بيانات متوسطة المدى.
القيود التقنية… والخطر في تحسينها
رغم قوة هذه الأدوات، إلا أنها بعيدة عن الكمال. باحثون من معهد آلان تورينج في المملكة المتحدة أوضحوا في ورقة بحثية نُشرت في آذار/مارس 2025 أن «لا نظام مدعومًا بالذكاء الاصطناعي قادر حاليًا على التنبؤ بشكل مثالي ببؤر التوترات الجيوسياسية». التحديات تشمل:
- قدرات حوسبة محدودة مقارنة بحجم وتعقيد البيانات العالمية.
- بيانات غير متسقة أو منقوصة، خصوصًا في الدول التي تقيّد الوصول إلى المعلومات.
- عدم قابلية السلوك البشري السياسي للاختزال الكامل في مؤشرات رقمية.
كريستوفر راو يؤكد بدوره أن هذه النماذج «ليست سحرًا» وأنها تعتمد على القيم الوسطية، ما يعني أنها تعمل بشكل أفضل على مستوى الاتجاهات العامة لا على مستوى التنبؤ الدقيق بمكان وزمان كل احتجاج. لكن المفارقة أن تحسّن النماذج بمرور الوقت، وزيادة توافر البيانات، قد لا يزيد فقط من دقتها، بل من جاذبيتها للجهات التي ترغب في إساءة استخدامها.
داميني ساتيغا، مديرة قسم التكنولوجيا في منظمة العفو الدولية، تحذّر من مشكلة أعمق: هذه النماذج تُدرَّب على بيانات تعكس بالفعل اختلالات قائمة؛ من تحيّزات سياسية وإعلامية، إلى ثغرات في التغطية لمناطق أو فئات اجتماعية معينة. النتيجة أن الذكاء الاصطناعي قد يعيد إنتاج هذه التشوهات ويضفي عليها «شرعية علمية» مزعومة.
من أداة إنذار مبكر… إلى أداة قمع استباقي
الخطر لا يكمن فقط في دقة النماذج، بل في من يستخدمها ولماذا. أنظمة سلطوية تمتلك تقليديًا أدوات مراقبة واسعة، ترى في هذه التكنولوجيا فرصة لتوسيع قدراتها من المراقبة السلبية إلى التنبؤ الاستباقي.
الباحث آراش خاني من جامعة مانشستر كتب في مجلة Democratization أن الشرق الأوسط «عالق منذ فترة طويلة في مجال التوتر بين التكنولوجيا والسلطة السياسية». التقنيات الجديدة، من التعرف على الوجوه إلى التحليلات التنبؤية، لم تُستخدَم لتعزيز الشفافية أو المشاركة، بل لتمديد عمر البُنى الأمنية القائمة.
الشرق الأوسط: مختبر مبكر للشرطة التنبؤية
عدد من دول المنطقة تحوّل بالفعل إلى مستهلك رئيسي لمنظومات المراقبة الذكية. تقارير من منظمات حقوقية وإعلامية دولية تشير إلى أن السعودية والإمارات ومصر والبحرين وإيران تستثمر في:
- أنظمة التعرف على الوجه في الأماكن العامة والمواقع ذات الحساسية الأمنية أو الدينية.
- مشاريع «المدن الذكية» التي تُصمَّم من البداية ببنية تحتية لمراقبة شاملة.
- منصات عمل شرطي تنبؤي تتبع أنماط الجريمة والاحتجاج، وأحيانًا الأفراد المصنفين خطرًا أمنيًا.
في مصر، على سبيل المثال، تُثار تساؤلات من منظمات حقوقية حول حجم المراقبة الرقمية للاتصالات، خاصة مع تطوير العاصمة الإدارية الجديدة كمدينة عالية الترابط، حيث تتكامل كاميرات المراقبة مع قواعد بيانات حكومية ضخمة.
في السعودية، بدأت تقنيات التعرف على الوجه في مكة والمدينة لأغراض تنظيم الحشود وإدارة الأمن، لكن النقاش يدور عالميًا حول كيفية ضمان عدم امتداد هذه التقنيات لاستخدامات سياسية، خاصة مع مشاريع مستقبلية كمدينة نيوم التي تعِد بمستوى غير مسبوق من «التحويل الرقمي» للحياة اليومية.
أما الإمارات، فغالبًا ما تُذكر في التقارير الدولية كأحد أكثر النماذج تقدمًا في مجال «الشرطة التنبؤية» ومشاريع «المدن الآمنة»، حيث تُستخدم أنظمة تحليل سلوكي لرصد الأنماط غير المعتادة في الأماكن العامة. هذه البنى التحتية، المدعومة بموارد مالية كبيرة وهياكل سياسية مركزية، تتيح دمج تقنيات التنبؤ بالنزاعات بسهولة في منظومة مراقبة أوسع، في غياب نقاش عام فعّال أو رقابة قضائية مستقلة.
دور التكنولوجيا الصينية
جزء من هذه المنظومات يأتي من شركات صينية راكمت خبرة في بناء أنظمة رقابة جماعية داخل الصين نفسها. تقارير من Human Rights Watch ووسائل إعلام مثل BBC وثّقت استخدام الذكاء الاصطناعي للتعرف على الوجوه وتتبع تحركات الأقليات والمعارضين في بعض الأقاليم الصينية، وهو ما يثير مخاوف من تصدير نموذج «القمع الخوارزمي» إلى الخارج عبر صفقات تكنولوجيا وأمن.
الأثر الردعي الخفي: الخوف من أن تُرى
حتى لو لم تصل أنظمة التنبؤ إلى دقة عالية، يكفي الإيمان بوجودها لإحداث أثر ملموس على الشارع. داميني ساتيغا تشير إلى أن أدوات الشرطة التنبؤية لها تأثير ردعي نفسي: ناشطون ومعارضون قد يحجمون عن المشاركة في الاحتجاجات، ليس لأن النظام يعرف ما سيفعلونه فعلًا، بل لأنهم مقتنعون أنه قادر على ذلك.
هذا «الخوف من أن تُرى» يتعاظم عندما تتقاطع عدة طبقات من المراقبة: كاميرات في الشوارع، قواعد بيانات حكومية موحدة، ربط بين أرقام الهواتف وحسابات التواصل الاجتماعي، وتحليلات سلوكية مبنية على الذكاء الاصطناعي. في هذه البيئة، التنبؤ بالاحتجاجات لا يعني فقط توقع مكانها، بل بناء خريطة تفصيلية للعلاقات بين الأشخاص الأكثر نشاطًا وتأثيرًا، ما يسهّل استهدافهم مبكرًا.
هل يمكن ضبط استخدام الذكاء الاصطناعي في مجال الأمن؟
المعضلة الأساسية أن التكنولوجيا نفسها محايدة نظريًا؛ يمكن استخدامها لتوجيه موارد الإغاثة إلى مناطق مهددة بالنزاع قبل انفجاره، كما يمكن استخدامها لقمع أي حراك احتجاجي في بداياته. منظمة Conflict Forecast، مثلًا، تمتنع عن نشر أي توقعات تتعلق بالاحتجاجات تحديدًا، كما يؤكد كريستوفر راو، إدراكًا لخطورة توظيف هذه المعطيات في غير سياقها.
لكن ما دامت هذه النماذج قابلة للتعديل لتشمل مؤشرات عن الاحتجاجات، وما دامت بعض الحكومات تمتلك حوافز قوية للسيطرة المسبقة على الشارع، فإن الرهان على «حسن النية» وحده لا يكفي. هناك نقاش عالمي متزايد حول ضرورة فرض أطر تنظيمية واضحة على استخدام الذكاء الاصطناعي في سياقات الأمن والعدالة، من الشفافية في مصادر البيانات، إلى حظر بعض التطبيقات التي تُهدّد الحقوق الأساسية في الخصوصية وحرية التعبير والتجمع.
في الشرق الأوسط، حيث مؤسسات الرقابة المستقلة محدودة غالبًا، تصبح هذه الأسئلة أكثر إلحاحًا. فكل تحسّن تقني في القدرة على التنبؤ بالنزاعات أو الاضطرابات قد يعني، في غياب ضوابط ديمقراطية، خطوة إضافية نحو «دولة تعرف كل شيء» وتتحرك قبل أن يكتمل الهتاف الأول في الشارع.