ساعة يوم القيامة تدق: تحذير رمزي بثقل واقعي
أبقت نشرة علماء الذرة (Bulletin of the Atomic Scientists) مؤخراً عقارب “ساعة يوم القيامة” عند 90 ثانية قبل منتصف الليل، وهي أقرب نقطة إلى الكارثة منذ ابتكار هذا المؤشر الرمزي في عام 1947. ورغم أن الساعة ليست أداة علمية بالمعنى الحرفي، إلا أنها تعكس تقديراً نوعياً لمستوى المخاطر الوجودية التي تهدد البشرية، من الأسلحة النووية إلى تغيّر المناخ والتقنيات الناشئة مثل الذكاء الاصطناعي المتقدّم والتقنيات الحيوية.
ما هي ساعة يوم القيامة؟
ساعة يوم القيامة ابتكرها علماء الذرة الذين شارك كثير منهم في مشروع مانهاتن الذي قاد إلى تطوير أول سلاح نووي. منتصف الليل في هذه الساعة يرمز إلى انهيار حضاري أو كارثة عالمية شاملة، بينما تعبّر المسافة الزمنية عن مدى قرب العالم من هذا السيناريو، وفق تقدير لجنة من الخبراء في مجالات الأمن النووي، المناخ، والعلوم والتقنية.
في يناير 2024، أعلنت النشرة إبقاء العقارب عند 90 ثانية قبل منتصف الليل، في إشارة إلى استمرار تداخل أزمات كبرى: احتدام التوترات النووية، تسارع آثار التغيّر المناخي، وتصاعد المخاطر المرتبطة بالتقنيات المتقدمة غير المنضبطة.
الأسلحة النووية: خطر قديم يعود إلى الواجهة
رغم مرور عقود على الحرب الباردة، لم يختفِ الخطر النووي. بالعكس، عودة التوتر بين القوى الكبرى، وتصاعد سباقات التسلّح في مناطق مختلفة، جعلت كثيراً من الخبراء يحذّرون من أن العالم يعيش أخطر حقبة نووية منذ الستينيات.
بحسب تقرير صادر عن معهد ستوكهولم الدولي لأبحاث السلام (SIPRI) عام 2024، تعمل عدة دول على تحديث ترساناتها النووية وتطوير أنظمة صواريخ قادرة على حمل رؤوس نووية بدقة أكبر ومدى أطول، ما يزيد احتمالات سوء التقدير أو الخطأ التقني الذي قد يطلق سلسلة أحداث كارثية.
إلى جانب ذلك، يشير محللون أمنيون إلى أن إدماج الذكاء الاصطناعي في أنظمة القيادة والتحكم العسكري وعمليات الرصد والإنذار المبكر يخلق طبقة جديدة من المخاطر: من الأعطال البرمجية إلى الهجمات السيبرانية وصولاً إلى الاعتماد المفرط على أنظمة آلية في قرارات شديدة الحساسية.
مناخ مضطرب وكوكب أكثر سخونة
الشق المناخي من تحذير ساعة يوم القيامة لا يقل خطورة. سجلّت الأرض في السنوات الأخيرة أرقاماً قياسية لدرجات الحرارة، وازدادت وتيرة موجات الحر الشديدة، والفيضانات، والحرائق واسعة النطاق. تقرير الهيئة الحكومية الدولية المعنية بتغيّر المناخ (IPCC) يوضح أن العالم يتجه بسرعة لتجاوز عتبة 1.5 درجة مئوية فوق مستويات ما قبل الثورة الصناعية، وهي عتبة يعتبرها العلماء حاسمة للحد من أسوأ السيناريوهات.
وفق بيانات «ناسا» و«NOAA»، شهد عام 2023 أعلى متوسط لدرجات الحرارة المسجّلة عالمياً، مع استمرار هذا الاتجاه في 2024. هذه الأرقام لا تعني فقط طقساً أكثر حرارة، بل تؤثر مباشرة في الأمن الغذائي، توافر المياه، الاستقرار الاجتماعي والسياسي، والهجرة القسرية، خاصة في المناطق الأكثر هشاشة مثل أجزاء واسعة من العالم العربي.
التقنيات الناشئة: بين الفرص الهائلة ومخاطر الانفلات
ذكاء اصطناعي بلا كوابح كافية
الذكاء الاصطناعي التوليدي والأنظمة القادرة على التعلم الذاتي باتت جزءاً من الحياة اليومية، من محركات البحث والمساعدات الرقمية إلى أدوات إنتاج المحتوى وتحليل البيانات الضخمة. تقرير لـ«MIT Technology Review» أشار إلى أن وتيرة التطوير في هذا المجال تتجاوز بكثير وتيرة التشريعات والحوكمة، ما يفتح الباب أمام استخدامات خطيرة أو غير مسؤولة.
المخاوف لم تعد محصورة في الوظائف أو الخصوصية، بل تجاوزتها إلى قضايا أكثر عمقاً: تضليل إعلامي واسع النطاق باستخدام محتوى مزيف عميق (Deepfake)، تسليح الذكاء الاصطناعي في الفضاء السيبراني، واستخدام خوارزميات معقّدة في أنظمة عسكرية أو حيوية دون شفافية كافية أو آليات مساءلة واضحة.
في تقرير لها، حذّرت منظمة «هيومن رايتس ووتش» من أن اعتماد الحكومات والشركات على أنظمة قرار آلية في مجالات مثل الائتمان، التوظيف، وحتى العدالة الجنائية، قد يعمّق التمييز ويعيد إنتاج الانحيازات الهيكلية إذا لم تُخضع هذه الأنظمة لتدقيق صارم.
تقنيات حيوية وتلاعب بالمادة الحية
في موازاة الذكاء الاصطناعي، تتقدّم التقنيات الحيوية بشكل متسارع، خصوصاً أدوات تعديل الجينات مثل CRISPR، والتخليق الحيوي، وتصميم مسببات أمراض في المختبرات لأغراض بحثية. هذه الثورة العلمية تحمل آمالاً هائلة لعلاج أمراض مستعصية وتحسين الأمن الغذائي، لكنها في الوقت نفسه تخلق سيناريوهات مخاطر غير مسبوقة، من الحوادث المخبرية إلى احتمالات الاستخدام البيولوجي المتعمّد.
تقارير منشورة في مجلتي Nature وScience تناولت خلال السنوات الأخيرة نقاشات داخل المجتمع العلمي نفسه حول حدود الأبحاث المقبولة في ما يعرف بأبحاث “زيادة الفاعلية” (Gain-of-Function) التي تُجرى على فيروسات وغيرها من الكائنات الدقيقة لزيادة قدرتها على الانتقال أو الإمراض، وهو مجال يثير قلقاً متصاعداً من زاوية الأمن البيولوجي.
الحوكمة التقنية: الحلقة الأضعف
الخيط المشترك بين الأسلحة النووية، التغيّر المناخي، والتقنيات الناشئة هو الحاجة إلى أطر حوكمة قوية وعابرة للحدود. في المجال النووي، هناك معاهدات قائمة مثل معاهدة عدم انتشار الأسلحة النووية (NPT)، لكنها تواجه تحديات سياسية وتكنولوجية جديدة. في المناخ، يشكّل اتفاق باريس إطاراً دولياً مهماً لكنه ما يزال أقل من المطلوب لتحقيق الأهداف المناخية المعلنة.
أما في مجال الذكاء الاصطناعي والتقنيات المتقدمة، فالصورة أكثر ضبابية. الاتحاد الأوروبي خطا خطوة مهمة بإقرار “قانون الذكاء الاصطناعي” (EU AI Act)، الذي يضع تصنيفات للمخاطر ويحدّد متطلبات شفافية وسلامة لأنظمة الذكاء الاصطناعي عالية الخطورة. في المقابل، السياسات في الولايات المتحدة وآسيا ما تزال متفرقة ومتفاوتة بين المبادرات الطوعية والتوجيهات القطاعية.
الأهم أن هذه الأطر غالباً ما تكون وطنية أو إقليمية، بينما طبيعة التقنيات نفسها عابرة للحدود بطبيعتها: النماذج تُدرَّب في دولة، وتُستضاف في مراكز بيانات بدولة أخرى، وتُستخدم عالمياً. هذا التناقض يخلق فجوة خطيرة في القدرة على المساءلة والرقابة.
العالم العربي: بين المستهلك والفاعل
المنطقة العربية ليست بعيدة عن هذه التحولات؛ بل هي في كثير من الأحيان في قلب تأثيراتها، خاصة على المستوى المناخي. تقارير الأمم المتحدة تشير إلى أن الشرق الأوسط وشمال أفريقيا من أكثر المناطق عرضة لارتفاع درجات الحرارة وشُحّ المياه، ما يعني أن سياسات المناخ العالمية ليست رفاهية بالنسبة لدول المنطقة، بل مسألة أمن قومي.
في الجانب التقني، تستثمر عدة دول عربية في البنى التحتية الرقمية والحوسبة السحابية ومراكز البيانات، وتطلق استراتيجيات وطنية للذكاء الاصطناعي والاقتصاد الرقمي. لكن الخبراء يحذّرون من أن التركيز على جذب الاستثمارات وتبنّي التطبيقات المتقدّمة لا يكفي، ما لم يصاحبه بناء أطر تشريعية صارمة لحماية الخصوصية، وضمان أمن البيانات، وتنظيم استخدام الخوارزميات في القطاعات الحساسة.
دول مثل الإمارات والسعودية وقطر أعلنت عن مبادرات واستراتيجيات للذكاء الاصطناعي، وبعضها يتضمن لجاناً أخلاقية واستشارية. غير أن كثيراً من الدول العربية الأخرى ما تزال في المراحل الأولى من صياغة سياسات رقمية متكاملة، ما يثير مخاوف من استيراد تكنولوجيا عالية التأثير دون امتلاك أدوات كافية لتنظيمها.
آراء خبراء: من سباق التسلّح إلى سباق الحوكمة
عدد من الخبراء يدعون إلى التعامل مع تقنيات الذكاء الاصطناعي والبيوتكنولوجيا بمنطق قريب من منطق حوكمة الأسلحة النووية، أي وضع خطوط حمراء واضحة، وقواعد شفافة للمراقبة، وآليات دولية للتحقق والمساءلة.
في تقرير نشره معهد “أوكسفورد إنترنت” (Oxford Internet Institute)، أشار الباحثون إلى أن “السباق الحقيقي ليس في من يطوّر أكبر نموذج لغوي أو أسرع معالج، بل في من يضع منظومة حوكمة قادرة على موازنة الابتكار مع السلامة والحقوق الأساسية”.
من جهتها، نقلت وكالة «رويترز» عن خبراء في الأمن السيبراني قولهم إن استخدام الذكاء الاصطناعي في الهجمات الإلكترونية وفي حملات التضليل السياسي سيجعل الانتخابات والأحداث الكبرى في السنوات المقبلة أكثر هشاشة، ما لم تُعزَّز معايير الشفافية والمساءلة لدى منصّات التواصل والشركات التقنية.
دعوة إلى إطار عالمي جديد للحوكمة التقنية
تحذير ساعة يوم القيامة هذه المرة لا يقتصر على مشهدية عقارب تقترب من منتصف الليل، بل يرتبط بنداء واضح لتطوير إطار عالمي أقوى لحوكمة التكنولوجيا المتقدمة. هذا الإطار، وفق ما يطرحه عدد من مراكز الأبحاث، ينبغي أن يشمل على الأقل:
- معايير دولية ملزِمة لسلامة أنظمة الذكاء الاصطناعي عالية المخاطر.
- آليات شفافة لتدقيق النماذج الخوارزمية المستخدمة في القطاعات الحساسة، مثل الصحة، والمالية، والعدالة، والبنية التحتية.
- تعزيز التعاون الدولي في مراقبة الأبحاث ذات الحساسية العالية في التقنيات الحيوية.
- ربط سياسات المناخ بسياسات التكنولوجيا، عبر تشجيع الابتكار الأخضر وتقليل البصمة الكربونية لمراكز البيانات وسلاسل التوريد الرقمية.
- إشراك دول الجنوب العالمي، بما فيها الدول العربية، في صياغة قواعد الحوكمة، بدلاً من أن تكون مجرد متلقٍّ لها.
المعادلة التي يطرحها العلماء بسيطة في جوهرها: كلما تسارعت قدرة الإنسان على تطوير أدوات تقنية قادرة على تغيير مصير الكوكب، تضاعفت الحاجة إلى أطر حوكمة واعية ومسؤولة. ساعة يوم القيامة ليست نبوءة، بل تذكير رمزي بأن نافذة الوقت لاتخاذ قرارات عقلانية ومسؤولة تضيق، وأن إدارة المخاطر التقنية والمناخية أصبحت قضية وجودية، لا تقنية فحسب.