أكبر دراسة نوعية عن مستخدمي الذكاء الاصطناعي حتى الآن
كشفت شركة Anthropic، المطوِّرة لنموذج Claude، عن ما تصفه بأنه أكبر دراسة نوعية أُجريت حتى الآن حول تجربة استخدام الذكاء الاصطناعي التوليدي. شملت الدراسة أكثر من 80 ألف مقابلة معمقة مع مستخدمين من مختلف القارات، وبـ70 لغة، بهدف فهم ما يفعله الناس فعليًا بهذه النماذج، وكيف يشعرون تجاهها، وما الذي يثير حماسهم أو خوفهم.
النتيجة الأساسية: الصورة أكثر تعقيدًا بكثير من خطاب “مع أو ضد” الذكاء الاصطناعي. الأشخاص أنفسهم الذين يصفون هذه النماذج بأنها أنقذت وقتهم، أو فتحت لهم فرص تعلم جديدة، هم أنفسهم الذين يتحدثون عن قلق عميق من الاعتماد الزائد، أو تقويض فرصهم المهنية، أو تآكل مهاراتهم على المدى البعيد.
كيف صُمّمت الدراسة؟ 80 ألف حوار، 70 لغة
بحسب ما نشرته Anthropic في تدوينة تحليلية على موقعها الرسمي (anthropic.com)، اعتمدت الشركة على مزيج من:
- مقابلات شبه مفتوحة: أسئلة واسعة تتيح للمستخدم أن يصف تجربته، بدل الاكتفاء باستبيانات مغلقة.
- عينة عالمية واسعة: مستخدمون من الأمريكيتين، أوروبا، آسيا، أفريقيا، وأوقيانوسيا، مع دعم لـ70 لغة مختلفة.
- ترميز نوعي: تحليل يدوي وآلي لإجابات المستخدمين لاستخراج الأنماط المتكررة في الفوائد والمخاوف وسلوك الاستخدام.
التركيز كان على الاستخدامات اليومية الحقيقية: الدراسة، العمل المكتبي، البرمجة، الترجمة، الكتابة الإبداعية، الاستشارات المهنية والشخصية، وحتى الدعم العاطفي.
فوائد ملموسة: تسريع التعلم والعمل لا مجرد “انبهار بالتقنية”
التعلّم المخصص على مستوى الفرد
من أقوى النتائج التي خرجت بها الدراسة أن المستخدمين لا يرون الذكاء الاصطناعي مجرد أداة “بحث أسرع”، بل معلّمًا خاصًا يمكن تخصيصه بدقة. الكثيرون أشاروا إلى أنهم:
- يطلبون شرحًا لمفاهيم معقدة بدرجات متفاوتة من الصعوبة (مبتدئ، متوسط، خبير).
- يعيدون صياغة الأسئلة حتى يحصلوا على شرح يتناسب مع خلفيتهم المعرفية.
- يستخدمونه كمنصة تدريب: مسائل محلولة في البرمجة، تحضير امتحانات، أمثلة تطبيقية.
هذا النمط يتقاطع مع ما وثقته تقارير أخرى؛ فدراسة لـOpenAI حول استخدام ChatGPT في التعليم أظهرت أن المعلمين والطلاب يستخدمون النماذج التوليدية كأداة للشرح المتدرج، وتصميم خطط دراسية شخصية، والتغلب على فجوات في الفهم.
توفير الوقت وتحويل الأعمال المملة إلى مهام شبه آلية
مستخدِمو Anthropic تحدّثوا بتفصيل عن أدوار عملية للذكاء الاصطناعي:
- تلخيص مستندات قانونية أو إدارية طويلة إلى نقاط رئيسية قابلة للفهم.
- صياغة مسودات أولية للبريد الإلكتروني، والعروض التقديمية، والتقارير.
- تعديل نصوص موجودة لغويًا وأسلوبًا بدل البدء من الصفر.
وهو اتجاه تؤكده أرقام خارجية: تقرير لـMcKinsey قدّر في 2023 أن الأتمتة التوليدية يمكن أن تضيف بين 2.6 و4.4 تريليون دولار سنويًا للاقتصاد العالمي، مع مساهمة كبيرة في مهام “المعرفة” مثل كتابة التقارير والتحليل الأولي.
فرص جديدة لمن لم يكن لهم صوت
جانب مهم من دراسة Anthropic هو حديث المستخدمين عن تمكين فئات لم تكن قادرة على التعبير أو المشاركة بنفس القوة:
- أشخاص لا يجيدون الإنجليزية استفادوا من الترجمة الفورية وصياغة الرسائل الرسمية.
- مستخدمون يعانون من عوائق في الكتابة أو التفكير المنظم وجدوا في النماذج أداة لترتيب أفكارهم.
- رواد أعمال صغار استخدموا النماذج لصياغة خطط أعمال، ووصف منتجات، ونصوص تسويق.
هذا يتقاطع مع نتائج تقرير لـمنظمة التعاون الاقتصادي والتنمية OECD حول أثر الذكاء الاصطناعي في الإنتاجية، والذي يشير إلى أن الأدوات التوليدية قد تقلل فجوة الكفاءة بين العاملين ذوي الخبرة المحدودة وزملائهم الأكثر خبرة.
الوجه الآخر: قلق، وارتباك، واعتماد قد يصبح مفرطًا
الخوف من تآكل المهارات الإنسانية
أحد المحاور المتكررة في مقابلات Anthropic هو شعور المستخدمين بأنهم يتحسنون على المدى القصير، لكنهم قد يضعفون على المدى الطويل. أمثلة نقلتها الشركة في ملخصها:
- طلاب يعتمدون على النماذج لكتابة الواجبات، ثم يكتشفون ضعفًا في فهم المادة عند الامتحان.
- كتّاب يلاحظون أن أسلوبهم بدأ يقترب من “نبرة موحَّدة” تشبه أسلوب النماذج.
- مستخدمون في مجالات تحليلية يخشون أن يقل اعتمادهم على التفكير النقدي.
هذه المخاوف ليست نظرية فقط؛ فدراسة نُشرت في مجلة Science عام 2023 عن استخدام ChatGPT في البرمجة أظهرت أن المطورين الذين اعتمدوا على النموذج لتحسين الشفرة أتمّوا المهام أسرع، لكنهم كانوا أكثر عرضة لإدخال ثغرات أمنية مقارنة بمن كتب الشفرة دون مساعدة، بحسب ملخص الدراسة المتاح عبر science.org.
من أداة مساعدة إلى “عكّاز” ذهني
كثيرون وصفوا شعورًا بالتبعية الذهنية: من البداية يكون استخدام الأداة اختيارًا لتوفير الوقت، ثم تتحول تدريجيًا إلى نقطة الانطلاق لكل مهمة. بعض المستخدمين تحدث عن أنه بات يلجأ للنموذج حتى في المهام البسيطة التي كان يقوم بها تلقائيًا سابقًا، مثل كتابة رسائل شخصية أو صياغة فكرة قصيرة.
Anthropic تشير إلى هذا النمط بوصفه حالة من “الاعتماد المريح”: المستخدم راضٍ عن النتيجة الفورية، لكنه يشعر بعد فترة بنوع من الفقدان للثقة بقدراته الذاتية.
الوظائف بين الأمل والخوف
جانب آخر من الدراسة هو نظرة المستخدمين لمستقبلهم المهني. الصورة متناقضة بوضوح:
- جزء من المشاركين يرى أن الذكاء الاصطناعي يفتح فرصًا جديدة: إنتاج محتوى، تطوير برمجيات، استشارات قائمة على الأتمتة، تحسين سير العمل.
- جزء آخر يخشى أن تتحول نفس الأدوات التي تساعده اليوم إلى بديل عنه غدًا، خاصة في المهن التي تعتمد على الكتابة، وخدمة العملاء، والترجمة، وبعض الأعمال المكتبية.
هذا الانقسام يتوافق مع تقارير دولية عديدة؛ مثل تقرير لـGoldman Sachs في 2023 قدّر أن الذكاء الاصطناعي التوليدي قد يغيّر طبيعة 300 مليون وظيفة عالميًا، مع مزيج من الأتمتة وخلق أدوار جديدة.
أبعاد أخلاقية: الثقة، الخصوصية، وتحيّزات خفية
هل يمكن الوثوق بالإجابات؟
من النقاط اللافتة في مقابلات Anthropic أن العديد من المستخدمين أصبحوا أكثر وعيًا بحدود النماذج. البعض وصف تجربته مع “هلوسة” النموذج (اختراع معلومات غير صحيحة) في مجالات مثل التاريخ أو الاستشارات القانونية أو الطبية.
تقارير متفرقة تؤكد هذه المشكلة؛ فاختبار أجرته Ars Technica على أنظمة توليد نصوص قانونية أظهر أن بعض النماذج قدّمت مراجع قانونية لمستندات غير موجودة في الواقع، ما دفع شركات مثل OpenAI وAnthropic إلى إضافة تحذيرات واضحة بعدم الاعتماد على الردود كاستشارات متخصصة دون تحقق بشري.
الخصوصية: هل يجب مشاركة كل شيء مع النموذج؟
كثير من المشاركين عبّروا عن تردد في مشاركة مستندات حساسة أو معلومات شخصية، رغم الفوائد الكبيرة التي يحصلون عليها عند القيام بذلك. هذه المفارقة تظهر بشكل خاص في:
- الشركات التي تتردد في إدخال بيانات داخلية إلى أدوات سحابية.
- الأفراد الذين يستفيدون من مراجعة سيرهم الذاتية أو عقودهم لكنهم يخشون تسريب المعلومات.
الجدل هنا ليس محليًا؛ بل عالمي. الاتحاد الأوروبي يعمل على تشريعات مثل “قانون الذكاء الاصطناعي” (EU AI Act) الذي يشدّد على الشفافية في طريقة تدريب النماذج واستخدام بيانات المستخدمين، ويمكن متابعة التطورات عبر بوابة المفوضية الأوروبية.
أين تقف المنطقة العربية من هذه التحولات؟
فجوة استخدام… وليست فقط فجوة لغة
الدراسة التي أجرتها Anthropic كانت متعددة اللغات، ما يعني أن المستخدم العربي حاضر بدرجة ما، لكن لا توجد حتى الآن بيانات علنية تفصيلية حول نسبة المشاركين العرب أو العربية ضمن اللغات المستخدمة. رغم ذلك، يمكن قراءة المشهد العربي من خلال تقارير موازية:
- تقرير لـالمنتدى الاقتصادي العالمي أشار إلى أن الاستثمارات في الذكاء الاصطناعي في الشرق الأوسط وشمال أفريقيا قد تصل إلى 320 مليار دولار بحلول 2030.
- دول مثل الإمارات والسعودية أطلقت استراتيجيات وطنية للذكاء الاصطناعي، مع مبادرات تعليمية وتدريبية واسعة.
مع ذلك، ما زال الاستخدام اليومي في قطاعات واسعة يعتمد على أدوات عالمية (مثل ChatGPT وClaude وGemini) أكثر مما يعتمد على حلول عربية محلية. وهذا يخلق مشكلات إضافية:
- جودة العربية: تحسّن واضح في دعم اللغة العربية، لكنه لا يزال أقل دقة من الإنجليزية في كثير من النماذج.
- السياق الثقافي والقانوني: نماذج مدربة أساسًا على بيانات غربية قد تقدّم نصائح أو محتوى لا يناسب القوانين أو الأعراف المحلية.
فرص حقيقية… لكن المخاطر مضاعفة لمن يتأخر
المفارقة أن كثيرًا من المخاوف التي رصدتها دراسة Anthropic قد تكون أشد حدّة في المنطقة العربية إذا استمر الاعتماد على نماذج خارجية دون بناء قدرات محلية:
- الاعتماد الكامل على منصات أجنبية قد يعني فقدان السيطرة على البيانات وعلى مسار التطوير.
- غياب محتوى عربي عالي الجودة في بيانات التدريب ينعكس على جودة المخرجات، ويعيد إنتاج صور نمطية أو تحيّزات غير دقيقة.
- سوق العمل المحلي قد يتأثر دون استعداد كافٍ لإعادة تأهيل العاملين أو تطوير مهارات جديدة مرتبطة بالذكاء الاصطناعي.
ما الذي يمكن للمستخدم العربي أن يتعلّمه من هذه الدراسة؟
استخدام واعٍ: بين الاستفادة القصوى والحفاظ على المهارات
نتائج الدراسة تقترح مجموعة من الممارسات العملية التي يمكن تبنّيها في العالم العربي أيضًا:
- اعتبر الأداة شريكًا لا بديلًا: استخدم الذكاء الاصطناعي في مرحلة الصياغة الأولى، ثم عدّل بنفسك وراجِع نقديًا.
- احمِ مهاراتك الأساسية: خصص وقتًا لإنجاز بعض المهام بدون أدوات ذكية (كتابة، تفكير تحليلي، حل مسائل) للحفاظ على لياقتك الذهنية.
- تحقق من المعلومات: تعامل مع المخرجات كنقطة بداية للبحث، لا كمصدر نهائي للحقائق، خاصة في القانون والطب والتمويل.
- احمِ بياناتك: تجنّب مشاركة معلومات حساسة أو وثائق سرية مع أي نموذج لا تعرف سياسات الخصوصية الخاصة به بدقة.
دور المؤسسات التعليمية والشركات العربية
الدراسة تضع مسؤولية كبيرة على عاتق المؤسسات، لا الأفراد فقط. في السياق العربي، يمكن للجامعات والشركات أن:
- تطوّر سياسات واضحة لاستخدام الذكاء الاصطناعي في الدراسة والعمل، بدلاً من الحظر الكامل أو الفوضى الكاملة.
- تستثمر في نماذج موجهة عربيًا، سواء عبر حلول محلية أو عبر تخصيص نماذج عالمية ببيانات عربية موثوقة.
- تطلق برامج تدريب مكثفة لتأهيل الموظفين والطلاب على الاستخدام الفعّال والآمن لهذه الأدوات.
الخلاصة: تعايش متوتر لا يمكن تجاهله
أكبر ما تكشفه دراسة Anthropic هو أن تجربة البشر مع الذكاء الاصطناعي ليست قصة “تقنية مذهلة تغيّر العالم” ولا قصة “خطر داهم يجب إيقافه”، بل حالة معقّدة يعيشها كل مستخدم بين الانبهار بما يمكن أن يفعله الآن، والقلق مما قد يفعله لاحقًا.
بالنسبة للمستخدم العربي، هذه النتيجة دعوة إلى التعلّم السريع دون استسلام سريع: الاستفادة من قوة هذه الأدوات في التعليم والعمل وريادة الأعمال، مع بناء وعي نقدي يحمي المهارات والخصوصية والفرص المستقبلية. فالذي يتجاهل الذكاء الاصطناعي يخاطر بالتخلف، والذي يستسلم له بالكامل يخاطر بفقدان ما يميّزه كإنسان.