دراسة غير مسبوقة: 80 ألف صوت من 70 لغة
نشرت شركة Anthropic، المطوّرة لنماذج الذكاء الاصطناعي التوليدي، ما تصفه بأنه أكبر دراسة نوعية حتى الآن حول تجربة مستخدمي الذكاء الاصطناعي. تضمنت الدراسة 80,508 مقابلات معمقة، وجُمعت آراء مستخدمين من خلفيات متباينة وبأكثر من 70 لغة. هذا الحجم الهائل من البيانات لا يقدّم مجرد أرقام واستبيانات سريعة، بل ينقل صورة معقّدة عن شعور الناس الحقيقي تجاه هذه التقنية التي أصبحت جزءًا من الحياة اليومية في زمن قياسي.
ما تكشفه الدراسة أن الخط الفاصل بين “المتحمّسين” و”الرافضين” للذكاء الاصطناعي لم يعد واضحًا. الكثير من المستخدمين يعيشون حالة مزدوجة: يستفيدون من الأدوات الذكية في الدراسة والعمل، وفي الوقت نفسه يتحدثون عن قلق عميق من فقدان وظائفهم، أو الاعتياد الزائد على الآلات، أو التلاعب بالمعلومات.
ما الذي يقوله المستخدمون فعلًا عن الذكاء الاصطناعي؟
أحد أبرز ما يلفت الانتباه في نتائج هذه الدراسة هو أن الاستعمال اليومي للأدوات الذكية لم يعد حكرًا على المبرمجين أو التقنيين. الطلاب، والمعلمون، والموظفون، وأصحاب الأعمال الصغيرة، ومتعلّمو اللغات الجديدة؛ جميعهم دخلوا في دائرة الاستخدام، لكن كل فئة تحمل مزيجها الخاص من الفوائد والمخاوف.
فوائد ملموسة: تعلّم أسرع وفرص جديدة
بحسب الدراسة، تُركّز نسبة كبيرة من المشاركين على القيمة العملية المباشرة للذكاء الاصطناعي:
- توفير الوقت: إعداد ملخصات، تحرير نصوص، ترتيب أفكار، وصياغة رسائل رسمية في دقائق بدل ساعات.
- المساعدة في التعلّم: شرح مفاهيم معقدة بطرق مبسطة، وتقديم أمثلة وتمارين إضافية، ودعم التعلّم الذاتي خارج قاعة الدرس.
- فتح فرص مهنية: مساعدة أصحاب الأعمال الصغيرة في كتابة خطط بسيطة، وتصميم حملات تسويق أولية، وتحسين سِيَرهم الذاتية ومحتوى ملفاتهم المهنية.
يتقاطع هذا مع ما وثّقته McKinsey في تقارير سابقة حول أثر الذكاء الاصطناعي التوليدي على الإنتاجية؛ حيث تشير التقديرات إلى أن هذه التقنيات قد تضيف تريليونات الدولارات إلى الاقتصاد العالمي عبر تقليص الوقت الضائع في المهام الروتينية.
قلق عميق: من فقدان العمل إلى فقدان المعنى
في الجانب الآخر، لا تُخفي الدراسة أن نفس من يثني على الذكاء الاصطناعي يتحدث عن مخاوف ملموسة، يمكن تلخيصها في ثلاثة محاور رئيسية:
- الوظائف: الخشية من أن يحلّ الذكاء الاصطناعي محل بعض المهارات، خاصة وظائف إدخال البيانات، وخدمات العملاء، وبعض الأعمال الإدارية والمكتبية.
- التبعية: القلق من أن يؤدي الاعتماد الزائد على الأدوات الذكية إلى إضعاف مهارات الكتابة والبحث والتحليل لدى الأفراد، خصوصًا لدى الطلاب.
- المعلومات المضلّلة: خوف متزايد من قدرة النماذج التوليدية على إنتاج محتوى مقنع لكنه غير دقيق أو مزيف، بما في ذلك الأخبار والصور والفيديوهات العميقة التزييف (Deepfake).
هذا التوتر بين الفائدة والقلق ليس معزولًا عن الخطاب العالمي. تقارير مثل تقرير المنتدى الاقتصادي العالمي عن المخاطر العالمية 2024 تضع الذكاء الاصطناعي، إلى جانب التغير المناخي، ضمن قائمة المخاطر التي تحتاج إلى استجابة سياسية وأخلاقية جادة.
الصورة في العالم العربي: استعمال متسارع وتنظيم بطيء
إذا نُقلت نتائج هذه الدراسة إلى السياق العربي، تظهر صورة قريبة وإن اختلفت بعض التفاصيل. كثير من الشباب في المنطقة يتعاملون اليوم مع أدوات الذكاء الاصطناعي التوليدي عبر منصات الدردشة، وأدوات توليد الصور، ومساعدات البرمجة، خاصة مع انتشار الوصول المجاني أو منخفض التكلفة.
التعليم والعمل الحر في قلب المشهد
في الجامعات والمدارس الخاصة، بات استخدام أدوات الذكاء الاصطناعي واضحًا في:
- تلخيص المراجع الطويلة.
- صياغة الأبحاث الأولية أو الهياكل العامة للمشاريع.
- مراجعة اللغة العربية والإنجليزية في الواجبات والتقارير.
أما في سوق العمل الحر، خصوصًا على منصات مثل Upwork وFreelancer والمنصات العربية، فيميل كثير من المستقلين إلى استخدام هذه الأدوات لتسريع إنتاج المحتوى، أو مراجعة الشيفرة البرمجية، أو إعداد عروض العمل.
لكن هذا الانفتاح السريع لا يصاحبه دائمًا نقاش كافٍ في الجامعات أو أماكن العمل حول حدود الاستخدام المقبول، وما الذي يُعتبر غشًا أكاديميًا، وكيفية التحقق من صحة المعلومات الناتجة عن النماذج التوليدية.
فجوة تنظيمية وتشريعية
عدد من الدول العربية بدأ يناقش أطرًا تنظيمية للذكاء الاصطناعي، لكن الإيقاع ما زال أبطأ من سرعة دخول التقنيات الجديدة إلى السوق. تُركّز المبادرات الحالية غالبًا على تشجيع الابتكار، وجذب الاستثمارات، واستخدام الذكاء الاصطناعي في الخدمات الحكومية، بينما لا تزال قضايا مثل حماية البيانات، وحقوق المؤلف، ومكافحة التمييز الخوارزمي قيد النقاش.
هذا التردد التنظيمي ليس حكرًا على المنطقة؛ الاتحاد الأوروبي احتاج سنوات من النقاش قبل أن يتوصل إلى إطار تشريعي مثل AI Act، الذي يضع معايير خاصة للتطبيقات عالية الخطورة، مثل أنظمة المراقبة أو تقييم الائتمان المالي.
هل مخاوف المستخدمين مبالغ فيها… أم مبرّرة تمامًا؟
نتائج دراسة Anthropic تُظهر أن هذه المخاوف لا تأتي من جهات سياسية أو حملات إعلامية فقط، بل من الاحتكاك اليومي بالتقنية. شخص يستفيد من أداة ذكاء اصطناعي لتسريع عمله يدرك في الوقت نفسه أن صاحب العمل قد يُعيد هيكلة فريقه إذا ثبت أن مهامًا كانت تحتاج خمسة أشخاص يمكن إنجازها الآن بثلاثة فقط.
خبراء من معاهد مثل Oxford Martin School كانوا قد حذّروا قبل سنوات من أن الأتمتة قد تؤثر بشكل جوهري على سوق العمل في العقود المقبلة، والذكاء الاصطناعي التوليدي يُسرّع هذا المسار. لكن في المقابل، أظهرت تقارير من مؤسسات مثل OECD أن التقنيات الجديدة تخلق أيضًا وظائف وأنماط عمل لم تكن موجودة، من مطوري حلول الذكاء الاصطناعي، إلى مهن الإشراف على النماذج واختبار تحيزها.
بهذا المعنى، المستخدمون “على حق” حين يجمعون بين التفاؤل والقلق: الخطر الحقيقي لا يكمن في الذكاء الاصطناعي وحده، بل في الطريقة التي تُدار بها عملية الانتقال الاقتصادي والاجتماعي حوله، ومن يستفيد من ثماره، ومن يتحمل تكلفته.
كيف يمكن تحويل التوتر إلى توازن عملي؟
ما تكشفه الأصوات الـ 80 ألفًا يمكن أن يكون دليلًا عمليًا لصنّاع القرار في العالم العربي:
- دمج الذكاء الاصطناعي في التعليم بوعي: بدلاً من المنع المطلق أو السماح المفتوح، يمكن تصميم مناهج تُعلّم الطلاب كيف يستخدمون الأدوات الذكية بشكل مسؤول، وكيف يتحققون من صحة ما تنتجه.
- برامج لإعادة تأهيل المهارات: الاستثمار في تدريب الموظفين، لا استبدالهم فقط. دورات قصيرة في تحليل البيانات، والتعامل مع النماذج الذكية، والتفكير النقدي، قد تقلل من صدمة التحول في سوق العمل.
- شفافية أكبر من الشركات التقنية: مطالبة الشركات التي تطلق أدوات ذكاء اصطناعي في المنطقة بتوضيح حدود قدراتها، ومصادر بياناتها، وآليات حماية الخصوصية.
- نقاش مجتمعي مفتوح: إشراك الجامعات، والخبراء، ورواد الأعمال، وصنّاع المحتوى في حوار مستمر حول أثر هذه التقنيات على اللغة، والثقافة، والعمل.
الدراسة الضخمة التي نشرتها Anthropic تؤكد أن النقاش حول الذكاء الاصطناعي لم يعد سؤالًا بسيطًا من نوع: “هل أنت معه أم ضده؟”، بل تحوّل إلى مفاوضة شخصية وجماعية مع واقع جديد. المنطقة العربية، كغيرها، أمام فرصة لصياغة علاقتها بهذه التقنيات بطريقة تجعل الفائدة ملموسة للجميع، وتُبقي المخاطر تحت السيطرة، بدل أن تتحول إلى أمر واقع يُفرض من الخارج.