قرار مفاجئ من ميتا… لكن مفهوم
أعلنت شركة ميتا عن إيقاف قدرة المراهقين على الدردشة مع «شخصياتها» المعتمدة على الذكاء الاصطناعي عبر منصاتها مثل إنستغرام وفيسبوك، بعد أشهر قليلة فقط من الترويج القوي لهذه الميزة كجزء من رؤيتها لمستقبل «التواصل المعزز بالذكاء الاصطناعي».
الخطوة أثارت أسئلة عديدة: لماذا الآن؟ وهل يتعلق الأمر فقط بضغط الجهات التنظيمية، أم بقلق أعمق حول تأثير هذه النماذج على المراهقين؟
ما هي «شخصيات ميتا» الذكية؟
قبل قرار الإيقاف، كانت ميتا تتيح لمستخدميها التفاعل مع مجموعة من «الشخصيات» المعتمدة على نماذج لغوية شبيهة بمألوف ما تقدمه شركات مثل OpenAI وGoogle. هذه الشخصيات ليست مجرد روبوت دردشة عام، بل ملفات شخصية افتراضية لها أسلوب معين، واهتمامات محددة (مثل الرياضة، الموضة، الألعاب، الاستشارات الدراسية الخفيفة)، ويتم الترويج لها على أنها رفقاء محادثة يساعدون المستخدم في الاستكشاف أو الترفيه أو تنظيم حياته اليومية.
إتاحة هذه الشخصيات للمراهقين كانت تعني وجود «صديق ذكي دائم» داخل تطبيقات يستخدمها الشباب يوميًا، يمكن التحدث معه في أي وقت عن الدراسة، المشكلات الشخصية، أو حتى التسلية الخفيفة.
لماذا أوقفت ميتا المحادثات مع المراهقين؟
بحسب تقارير تقنية غربية عدة، من بينها تقارير لموقع The Wall Street Journal وThe Verge، واجهت ميتا انتقادات متزايدة من جهات حقوقية ومنظمين في الولايات المتحدة وأوروبا بسبب السماح للمراهقين بالتفاعل الحر مع روبوتات ذكاء اصطناعي دون ضمانات كافية حول نوعية المحتوى الذي قد يتلقونه.
المخاوف الأساسية تدور حول عدة نقاط:
- المحتوى الحساس: نماذج الذكاء الاصطناعي قادرة – ولو عن غير قصد – على إنتاج ردود تتعلق بالجنس، العنف، إيذاء النفس، أو مواضيع نفسية حساسة، حتى مع وجود أنظمة تصفية.
- تأثير عاطفي غير متوقع: مراهق يتعامل مع «شخصية ذكية» بانتظام قد يطوّر نوعًا من التعلق أو الاعتماد العاطفي، خصوصًا إن كان يمر بمرحلة صعبة اجتماعيًا أو نفسيًا.
- الخصوصية والبيانات: كل ما يكتبه المراهق في المحادثة قد يُستخدم في تحسين النماذج أو تخصيص الإعلانات، وهو ما يفتح باب أسئلة قانونية وأخلاقية حول جمع بيانات الفئات العمرية الأصغر سنًا.
تقارير سابقة عن نماذج ذكاء اصطناعي أخرى – مثل تقارير BBC حول مخاطر روبوتات الدردشة على المراهقين – عززت القلق العام من أن هذه الأنظمة قد تقدّم نصائح غير ملائمة، أو ترد بردود تبدو «متعاطفة» لكنها غير مسؤولة في سياقات حساسة مثل الاكتئاب أو إيذاء الذات.
سياق عالمي من التشدد مع الشركات التقنية
قرار ميتا لا يأتي في فراغ. خلال العامين الأخيرين، تصاعد الضغط على شركات التكنولوجيا الكبرى لتشديد سياساتها تجاه المحتوى الموجّه للمراهقين:
- الاتحاد الأوروبي يطبق تشريعات مثل قانون الخدمات الرقمية (DSA) الذي يشدد على حماية القاصرين داخل المنصات الرقمية.
- الولايات المتحدة تشهد نقاشات حادة حول تحديث قوانين مثل COPPA لحماية خصوصية الأطفال في البيئة الرقمية، مع دعوات صارمة لتقييد جمع البيانات.
- منصات مثل تيك توك ويوتيوب واجهت بالفعل غرامات وتحقيقات تتعلق بالمحتوى الموجّه لصغار السن وآليات التوصية التي قد تؤدي إلى إدمان الاستخدام.
في هذا السياق، قد تبدو خطوة ميتا وقائية بقدر ما هي استجابة مباشرة للانتقادات؛ فالشركة لا تريد أن تجد نفسها في قلب عاصفة تنظيمية جديدة، هذه المرة حول الذكاء الاصطناعي وليس فقط حول خوارزميات التوصية والمحتوى التقليدي.
الثغرات التقنية والأخلاقية في نماذج المحادثة
مهندسو الذكاء الاصطناعي يعرفون جيدًا أن هذه النماذج – مهما كانت متقدمة – تظل عرضة للانحراف عن السلوك المتوقع. ضمان «سلامة» الردود بنسبة 100٪ مهمة شبه مستحيلة حاليًا، خصوصًا عندما تكون الأسئلة من مستخدمين يختبرون الحدود أو يعيشون ظروفًا نفسية معقدة.
التحديات تشمل:
- صعوبة التنبؤ بجميع سيناريوهات الحوار التي قد يفتحها مراهق فضولي أو يعاني من ضغوط.
- احتمال إساءة استخدام الروبوت نفسه من قبل بالغين أو مراهقين آخرين لتجاوز القيود، مثل طلب نصائح خطرة أو محتوى غير لائق بطريقة ملتوية.
- تباين الثقافة والقيم بين مناطق العالم، ما يجعل من الصعب ضبط إجابة «آمنة عالميًا» تصلح لجميع السياقات.
خبراء أخلاقيات الذكاء الاصطناعي ينبهون منذ سنوات إلى أن هذه الأنظمة لا تملك وعيًا، ومع ذلك يتعامل المستخدم معها أحيانًا وكأنها كيان واعٍ قادر على الفهم والتعاطف، وهذا الخلط قد يكون خطيرًا تحديدًا لدى المراهقين.
ماذا عن المستخدمين في المنطقة العربية؟
المراهقون العرب جزء أساسي من قاعدة مستخدمي ميتا، خصوصًا على إنستغرام وواتساب. ومع أن خدمات ميتا في مجال الشخصيات الذكية لم تنتشر بعد بشكل موحد وباللغة العربية في كل الدول، إلا أن التوجه واضح: الشركات الكبرى ترى في المنطقة العربية سوقًا مهمًا لتطبيقات الذكاء الاصطناعي التفاعلية.
هنا تبرز عدة أسئلة إضافية:
- كيف سيتم تكييف هذه النماذج مع الحساسية الثقافية والدينية في العالم العربي؟
- هل تملك الحكومات والهيئات التنظيمية في المنطقة أدوات رقابة وتشريع كافية للتعامل مع هذا النوع من الخدمات؟
- ما دور الأهل والمدارس في توعية المراهقين حول التعامل مع روبوتات الدردشة، وعدم الاعتماد عليها في القضايا العميقة أو الحساسة نفسيًا؟
حتى الآن، أغلب المبادرات التنظيمية في المنطقة تركز على المحتوى المرئي والتواصل التقليدي، بينما يظل الذكاء الاصطناعي التوليدي مجالاً جديدًا نسبياً من ناحية القوانين المحلية. وهذا قد يضع المستخدم العربي في وضع أكثر هشاشة إذا لم تُواكب التشريعات سرعة انتشار هذه الخدمات.
هل الحل هو المنع التام؟
إيقاف ميتا لمحادثات المراهقين مع شخصيات الذكاء الاصطناعي خطوة تحسب لصالح الحذر، لكنها تطرح أيضًا جدلًا حول جدوى المنع الكامل. فالمراهقون قادرون بسهولة على الوصول إلى روبوتات دردشة عبر مواقع وتطبيقات أخرى خارج منظومة ميتا، بعضها أقل التزامًا بالمعايير الأخلاقية والتنظيمية.
بعض خبراء التقنية يرون أن المسار الأفضل هو:
- تصميم إصدارات خاصة بالمراهقين ذات قدرات محدودة وفلترة مشددة.
- توفير واجهات تشرح بوضوح أن الروبوت ليس طبيبًا ولا مختصًا نفسيًا ولا صديقًا حقيقيًا، بل أداة مساعدة فقط.
- إشراك الأهل في ضبط الإعدادات، وإتاحة أدوات رقابة أسرية واضحة وسهلة الاستخدام.
على الجانب الآخر، يرى آخرون أن أكبر خطر يكمن في تجربة واسعة النطاق دون فهم كافٍ لتأثيرها النفسي والاجتماعي على الأجيال الأصغر، وأن التوقف المؤقت لاختبار الأثر وجمع البيانات حول السلوكيات قد يكون ضروريًا في هذه المرحلة.
ما الذي يمكن توقعه في الفترة المقبلة؟
من غير المتوقع أن تتراجع ميتا أو غيرها عن خططها الكبرى للذكاء الاصطناعي. السوق يتجه بوضوح نحو دمج نماذج المحادثة في كل شيء: الرسائل، الألعاب، التعليم، وحتى التسوق اليومي. لكن طريقة التعامل مع المراهقين ستستمر في التغير.
المرجح أن نرى في الأشهر والسنوات القادمة:
- قواعد أكثر صرامة على مستوى العالم حول تفاعل الذكاء الاصطناعي مع القاصرين.
- واجهات تشرح بشكل صريح للمستخدم ما الذي يفعله النظام ببياناته، وكيف تُستخدم في التدريب أو الإعلانات.
- تعاونًا أوسع بين الشركات التقنية والباحثين في علم النفس التربوي لرسم حدود واضحة لما يجب – وما لا يجب – أن يقدمه روبوت دردشة لمراهق.
بالنسبة للمستخدم العربي، يبقى الوعي الفردي والأسري حاسمًا. وجود روبوت ذكي داخل تطبيق اجتماعي مألوف لا يعني بالضرورة أنه آمن أو مناسب لكل الأعمار. وبين حماس التجربة وخوف المنع، يبقى الخيار الأكثر واقعية هو الاستخدام الواعي، مع ضغط مجتمعي وتشريعي باتجاه شفافية أكبر ومسؤولية أوضح من جانب الشركات.