قرار مفاجئ من OpenAI: تجميد «وضع البالغين» لأجل غير مسمى
قررت شركة OpenAI تعليق خطط إطلاق «وضع البالغين» في روبوت الدردشة الشهير ChatGPT إلى أجل غير مسمى، بعد نقاشات داخلية وضغوط من مستثمرين وخبراء بخصوص الآثار الاجتماعية المحتملة لهذا النوع من المنتجات، بحسب تقرير لصحيفة Financial Times.
الفكرة الأساسية للوضع كانت السماح بمحادثات ذات طابع عاطفي أو جنسي مع النظام، ضمن «مساحة مقيّدة» للبالغين فقط، مع طبقات حماية إضافية. لكن المشروع أثار منذ البداية أسئلة حساسة حول حدود دور الذكاء الاصطناعي في العلاقات الإنسانية، وحول كيفية حماية القاصرين من التعرض لمحتوى غير ملائم، حتى في حال وجود آليات تحقق من العمر.
ما هو «وضع البالغين» ولماذا أثار كل هذا الجدل؟
بحسب مصادر نقلت عنها Financial Times، كان «وضع البالغين» مصممًا ليكون إعدادًا اختياريًا داخل ChatGPT يسمح بمستوى أعلى من الانفتاح في المحادثات ذات المحتوى الحميم أو العاطفي. لم تكن الفكرة مقتصرة على المحتوى الجنسي الصريح، بل تمتد إلى محادثات حول العلاقات، والحميمية، والمشاعر المعقدة التي يمر بها المستخدمون.
الاعتراض الأساسي داخل الشركة، وفق التقرير، دار حول ثلاثة محاور رئيسية:
- مخاوف أخلاقية واجتماعية: خشية من تعزيز نوع من «العلاقات البديلة» مع أنظمة الذكاء الاصطناعي على حساب العلاقات الإنسانية الطبيعية، خاصة لدى الفئات الأكثر هشاشة نفسيًا.
- حماية القاصرين: صعوبة ضمان ألا ينجح المراهقون أو الأطفال في تجاوز أنظمة التحقق من العمر، وهو تحدٍّ تعاني منه معظم المنصات الرقمية اليوم.
- سمعة الشركة والعلامة التجارية: الخوف من أن تتحول OpenAI من شركة تركز على إنتاجية المستخدمين والبحث العلمي إلى منصة تُعرف أساسًا بمحتواها الحميم أو «للكبار فقط».
تحديات تقنية وقانونية معقدة
إلى جانب الجدل الأخلاقي، واجهت OpenAI تحديات تقنية وقانونية حقيقية في تدريب النماذج على هذا النوع من المحادثات. النماذج اللغوية الكبرى تحتاج إلى كميات ضخمة من البيانات، وأي انزلاق نحو محتوى غير قانوني (مثل الاستغلال الجنسي للأطفال أو المواد غير المرخصة) يعرّض الشركة لمسؤوليات قانونية مباشرة في عدد من الدول.
كما أن تطوير آلية فعّالة للتحقق من عمر المستخدم ليس أمرًا بسيطًا. كثير من المنصات تعتمد على تلميحات عمرية أو تأكيد من المستخدم نفسه، وهي آليات يسهل التحايل عليها. أما التحقق باستخدام وثائق الهوية أو البيانات البيومترية فيفتح بابًا آخر لمخاطر الخصوصية وتسريب البيانات.
لهذه الأسباب، تشير مصادر الصحيفة إلى أن النظام المقترح للتحقق من العمر ما زال «غير ناضج» تقنيًا، وأن الشركة غير مستعدة لتحمّل مخاطرة إطلاق منتج بهذه الحساسية دون ضمانات صارمة.
تحوّل في الإستراتيجية: من التجارب الجانبية إلى «التطبيق الشامل»
قرار تجميد «وضع البالغين» لا يأتي بمعزل عن تغيّرات أوسع في إستراتيجية OpenAI. الشركة أعلنت في وقت سابق وقف تطوير تطبيق توليد الفيديو Sora كتطبيق مستقل، في إشارة إلى إعادة ترتيب الأولويات والتركيز أكثر على دمج القدرات المختلفة ضمن منصة واحدة متكاملة.
تسعى OpenAI إلى ما تسميه داخليًا «التطبيق الشامل» أو Super App، وهو نموذج يشبه ما تقدمه تطبيقات كبرى في آسيا مثل WeChat في الصين: منصة موحّدة تجمع بين المساعد الذكي، وأدوات الإنتاجية، والتواصل، وربما الدفع الإلكتروني وخدمات أخرى في المستقبل.
المنطق التجاري هنا واضح: بدلاً من تشتيت الجهود في منتجات جانبية عالية الجدل ومنخفضة المردود، يمكن للشركة تعظيم الفائدة عبر تعزيز أدوات الإنتاجية (كتابة، برمجة، تحليل بيانات، توليد وسائط) للمستخدمين الأفراد والشركات، وهو ما يجذب اشتراكات مستقرة وشراكات طويلة الأمد.
سياق عالمي: ضغط قانوني متزايد على شركات التكنولوجيا
قرار OpenAI يأتي في لحظة حساسة لشركات التكنولوجيا الكبرى التي تواجه انتقادات سياسية وقانونية متصاعدة حول تأثير منتجاتها على الصحة النفسية للمستخدمين، خصوصًا الأطفال والمراهقين.
في الولايات المتحدة، تواجه Meta (الشركة المالكة لفيسبوك وإنستغرام) دعاوى قضائية من عدة ولايات أميركية تتهمها بتصميم منتجات تُلحق ضررًا بالصحة النفسية للمراهقين وتزيد من الإدمان على استخدام المنصات، كما أوردت Reuters.
في المقابل، تعرضت شركة xAI التي أسسها إيلون ماسك لانتقادات حادة بعد أن أظهر نموذجها «Grok» في بعض الاختبارات استجابة غير ملائمة لمحتويات حساسة؛ وهو ما أُثير في تقارير صحفية متفرقة وضمن نقاشات موسعة حول سلامة نماذج الذكاء الاصطناعي على المنصات الاجتماعية.
هذه الأجواء تجعل أي خطوة نحو إطلاق وضع «للكبار فقط» في أنظمة المحادثة الذكية أشبه بالسير في حقل ألغام قانوني وإعلامي، خصوصًا أن الحكومات والهيئات التنظيمية باتت أكثر جرأة في مساءلة المنصات عن المحتوى الذي تسمح به أو تشجع عليه.
العامل الاستثماري: بين النمو السريع وإدارة المخاطر
بحسب Financial Times، كان لبعض المستثمرين داخل OpenAI دور في الضغط باتجاه تجميد المشروع، انطلاقًا من قناعة بأن العائد التجاري المحتمل لا يبرر تعريض الشركة لمخاطر تنظيمية وقانونية وأخلاقية بهذا الحجم.
الشركات الناشئة التي تتحول بسرعة إلى كيانات عالمية ضخمة – كما هو حال OpenAI – تعيش توازنًا صعبًا بين «النمو العدواني» و«إدارة المخاطر». منتجات مثل «وضع البالغين» قد تجذب اهتمامًا واسعًا في المدى القصير، لكنها قد تُضعف ثقة الشركات والمؤسسات التعليمية والحكومات التي بدأت تعتمد على ChatGPT كأداة عمل وتعليم.
هذا التوتر بين طموح التوسع والحرص على السمعة يفسّر التحوّل الأخير في OpenAI نحو نموذج أكثر تحفظًا في المشاريع ذات الحساسية الاجتماعية.
هل يمكن تنظيم «المحادثات الحميمية» مع الذكاء الاصطناعي؟
الباحثون في أخلاقيات الذكاء الاصطناعي لم يصلوا بعد إلى إجماع واضح حول جدوى أو خطورة المحادثات العاطفية والحميمية مع الروبوتات الذكية. بعض الدراسات الحديثة، مثل أبحاث نُشرت في مجلات علم النفس الاجتماعي، تشير إلى أن بعض المستخدمين قد يجدون في هذه المحادثات دعمًا عاطفيًا، خاصة في حالات العزلة أو الاضطرابات النفسية.
في المقابل، يحذّر باحثون آخرون من أن الاعتماد المفرط على هذه الأنظمة قد يعمّق مشاعر العزلة، ويخلق توقعات غير واقعية عن العلاقات البشرية، أو يدفع الأفراد إلى تفضيل «علاقة يمكن السيطرة عليها» مع نظام ذكي على علاقة إنسانية معقّدة.
OpenAI أعلنت – بحسب التقرير – أنها ترغب في إجراء أبحاث طويلة المدى حول تأثير هذا النوع من المحادثات قبل اتخاذ قرار نهائي، مؤكدة أن الأدلة العلمية الحالية غير كافية للحسم في اتجاه واضح.
ما الذي يعنيه القرار للمستخدمين والشركات؟
للمستخدم العادي
تجميد «وضع البالغين» يعني أن ChatGPT سيبقى لفترة غير معلومة مقيدًا بسياسات صارمة تمنع المحتوى الجنسي الصريح أو الحميم بشكل واضح، مع استمرار السماح بنقاشات عامة حول الصحة الجنسية أو العلاقات ضمن إطار تعليمي وطبي وآمن.
من المتوقع أن تواصل OpenAI تحسين أدوات «السلامة» داخل النظام، مثل ضبط النبرة، وتصفية الطلبات الحساسة، وتقديم ردود بديلة مفيدة دون الدخول في محتوى غير ملائم.
للشركات والمؤسسات
القرار قد يُفسَّر لدى كثير من المؤسسات كرسالة طمأنة بأن OpenAI تفضّل التركيز على حالات الاستخدام الإنتاجية والعملية (كتابة المحتوى المهني، دعم خدمة العملاء، البرمجة، التحليل) بدل الدخول في مجالات عالية الجدل.
هذا التوجه ينسجم مع رغبة الشركات في الاعتماد على أدوات ذكاء اصطناعي يمكن إدماجها في بيئة العمل دون مخاطر قانونية أو أخلاقية إضافية، خصوصًا في القطاعات التي تخضع لرقابة مشدّدة مثل التعليم، والقطاع الصحي، والقطاع المالي.
نحو مرحلة نضج جديدة في سوق الذكاء الاصطناعي
التحولات الأخيرة في OpenAI – من تجميد «وضع البالغين» إلى إيقاف Sora كتطبيق مستقل، مرورًا بالتركيز على «التطبيق الشامل» – تعكس مرحلة نضج جديدة في سوق الذكاء الاصطناعي التجاري.
في البدايات، كانت الشركات تتسابق لإطلاق أكبر قدر من التجارب «المثيرة» وجذب الانتباه الإعلامي. اليوم، ومع تضخم التقييمات السوقية وازدياد التدقيق التنظيمي، يتحوّل التركيز تدريجيًا إلى الأسئلة الأكثر صعوبة: من يضمن سلامة المستخدم؟ من يتحمّل مسؤولية التأثير الاجتماعي طويل المدى؟ وكيف يمكن تحقيق الربح دون التضحية بالثقة العامة؟
تجميد «وضع البالغين» لا يعني نهاية النقاش حول دور الذكاء الاصطناعي في العلاقات الحميمية أو العاطفية، لكنه إشارة واضحة إلى أن الشركات الكبرى لم تعد مستعدة للمغامرة في مناطق رمادية دون إطار بحثي وقانوني واضح. في العالم العربي، يظل التحدي مضاعفًا: الاستفادة من قدرات هذه الأنظمة مع الحفاظ على الخصوصية والقيم المحلية، وفي الوقت نفسه تجنّب ترك الساحة فارغة أمام حلول غير آمنة أو غير خاضعة لأي رقابة.