قلق جديد من قلب الشركات الناشئة في الذكاء الاصطناعي
أطلق المستثمر والرئيس التنفيذي لشركة HyperWrite مات شومر تحذيرًا لافتًا عبر سلسلة تغريدات على منصة “إكس”، عبّر فيها عن قلقه من السرعة الهائلة التي يتطور بها الذكاء الاصطناعي حاليًا. شومر، الذي يعمل في صلب هذا القطاع عبر شركته التي تطور أدوات توليد النصوص والمساعدة الكتابية، يرى أن العالم يقترب من “مرحلة الخطر”، حيث تتقاطع القدرات التقنية الجديدة مع غياب الضوابط الواضحة والمسؤولة.
ما يميز هذا التحذير أنه لا يأتي من ناقد تقليدي للتكنولوجيا، بل من رائد أعمال يستفيد تجاريًا من موجة الذكاء الاصطناعي التوليدي. هذا يجعل رسالته أقرب إلى إنذار من الداخل، لا من موقف رومانسي معادٍ للتقنية.
من هو مات شومر وما هي HyperWrite؟
تعد HyperWrite واحدة من الشركات الناشئة التي تبني منتجاتها فوق نماذج لغوية كبيرة شبيهة بنماذج OpenAI وAnthropic وغيرها. تقدم الشركة أدوات مساعدة على الكتابة، وإكمال الجمل، واقتراح الأفكار، عبر واجهة تشبه ما يقدمه كثير من ملحقات المتصفحات وتطبيقات الإنتاجية الحديثة.
شومر نفسه ينتمي إلى جيل جديد من رواد الأعمال في وادي السيليكون الذين نشأوا على ثقافة “التحرك بسرعة وكسر القواعد”، لكنه يبدو اليوم أكثر ميلًا إلى خطاب “التحرك بحذر وعدم كسر المجتمع”. رسالته تعكس تحوّلًا في المزاج العام لبعض العاملين في هذا القطاع، الذين باتوا يرون أن السباق على إطلاق نماذج أكبر وأقوى لم يعد مجرد منافسة تجارية، بل سباقًا قد تكون له تبعات مجتمعية عميقة.
سرعة التطور: من أدوات مساعدة إلى أنظمة مؤثرة في القرارات
خلال أقل من عامين، انتقل الذكاء الاصطناعي التوليدي من خانة التجربة الترفيهية إلى موقع أساسي في قطاعات الإعلام، والبرمجة، والتعليم، والتسويق، والخدمات الحكومية في بعض الدول. منصات مثل ChatGPT وClaude وGemini لم تعد مجرد فضول تقني، بل أدوات يعتمد عليها ملايين المستخدمين يوميًا.
تقارير من مؤسسات بحثية مثل MIT أشارت إلى أن استخدام نماذج اللغة الكبيرة في بيئات العمل ساهم في زيادة إنتاجية الموظفين وتحسين جودة بعض المهام، خاصة في وظائف خدمة العملاء والتحليل الكتابي. لكن هذه الدراسات نفسها حذّرت من مخاطر الاعتماد غير النقدي على مخرجات هذه النماذج، خصوصًا مع قدرتها على توليد معلومات خاطئة بصيغة تبدو واثقة ومقنعة.
هذا التناقض بين الفائدة الكبيرة والقدرة على التزييف المنظم هو ما يصفه شومر بمرحلة “الخطر”: اللحظة التي تصبح فيها الأدوات قادرة على التأثير في قرارات واسعة النطاق، بينما لا تزال آليات الرقابة والمسؤولية الأخلاقية في طور التشكل.
من القلق الفردي إلى نقاش عالمي
رسالة شومر ليست حالة منفردة. في العام الماضي وقّع عدد من العلماء والمديرين التنفيذيين في قطاع الذكاء الاصطناعي بيانًا قصيرًا يشبه تحذيرًا نوويًا، حمل جملة واحدة فقط: “التقليل من مخاطر الانقراض من الذكاء الاصطناعي يجب أن يكون أولوية عالمية”. من بين الموقعين سام ألتمان (OpenAI)، وجيفري هينتون، أحد “آباء التعلم العميق”، الذي غادر Google وأعلن أكثر من مرة أن قدرات النماذج الحالية تجاوزت ما كان يتصوره خلال هذه المدة القصيرة.
وسائل إعلام دولية مثل BBC وReuters نقلت خلال الشهور الماضية سلسلة من النقاشات بين الحكومات وشركات التقنية الكبرى حول طرق تنظيم الذكاء الاصطناعي، بدءًا من الاتحاد الأوروبي الذي يعمل على “قانون الذكاء الاصطناعي”، مرورًا بالولايات المتحدة التي طرحت توجيهات رئاسية، وصولًا إلى مبادرات في دول آسيوية لتقييد استخدام هذه التقنيات في مجالات حساسة كالصحة والانتخابات.
ما الذي يجعل اللحظة الحالية مختلفة؟
1. الوصول الجماهيري غير المسبوق
للمرة الأولى، تصبح أدوات بقدرات قريبة من “المحترف البشري” متاحة للجمهور الواسع بكبسة زر. يمكن لأي شخص اليوم كتابة تعليمات بسيطة والحصول على نصوص طويلة، أو كود برمجي، أو تحليلات أولية، أو حتى محتوى مرئي وصوتي يصعب تمييزه عن الواقع.
هذا الانتشار الواسع يعني أن تأثير الأخطاء، والتحيزات، وحالات سوء الاستخدام لم يعد محصورًا في المختبرات أو الشركات الكبرى، بل يمكن أن يظهر في المدارس، والمنصات الاجتماعية، وقنوات الأخبار، والفضاء السياسي.
2. تلاقي الذكاء الاصطناعي مع الأزمات المعلوماتية
العالم يعاني أصلًا من “تضخم المعلومات”، حيث يصعب على المستخدم التحقق من صحة كل ما يراه أو يقرأه. دخول نماذج قادرة على توليد كميات هائلة من النصوص والصور والفيديو يزيد من تعقيد المشهد. تقارير من TechCrunch وThe New York Times تناولت بالفعل حوادث استخدام الذكاء الاصطناعي في حملات تضليل، وصناعة صور مزيفة لشخصيات عامة، وحتى رسائل تصيّد متقنة يصعب كشفها.
3. انتقال سريع من “المساعدة” إلى “القرار”
في البداية، قُدمت هذه النماذج بوصفها أدوات مساعدة للإنسان، لكن بعض المؤسسات بدأت تمنحها دورًا أكبر في اتخاذ القرارات أو ترشيح الخيارات. وهناك نقاش حقيقي اليوم حول مدى أمان الاعتماد على أنظمة غير شفافة في قضايا مثل منح القروض، أو اختيار المرشحين للوظائف، أو تقييم طلاب الجامعات.
بين التخويف غير المبرر والتحذير المسؤول
جزء من النقاش الدائر اليوم يتمحور حول سؤال: هل هذه التحذيرات نوع من المبالغة يخدم مصالح الشركات الكبرى لتثبيت هيمنتها ومنع المنافسة، أم أنها صوت مبكر يجب الإنصات إليه؟
بعض الباحثين يشيرون إلى أن التركيز على سيناريوهات “انقراض البشرية” قد يصرف الانتباه عن مخاطر أقرب وأكثر واقعية، مثل:
- فقدان بعض الوظائف أو تحول طبيعتها دون استعداد كافٍ للعمال.
- توسيع الفجوة بين من يملك الوصول إلى التقنية ومن يُستبعد منها.
- تأثير الأتمتة على جودة التعليم إذا استُخدمت الأدوات كبديل عن المعلم لا كوسيلة مساعدة.
- تعزيز تحيّزات اجتماعية وعرقية وجندرية قائمة إذا تدرّبت النماذج على بيانات غير متوازنة.
التحذير المسؤول لا يهدف إلى إيقاف البحث أو الشلل التنظيمي، بل يدعو إلى بناء ضوابط متوازنة: شفافية أكبر حول كيفية تدريب النماذج، آليات فعالة للتبليغ عن سوء الاستخدام، أطر قانونية تحمي المستخدمين دون خنق الابتكار، وتعليم رقمي حقيقي يهيئ الأفراد للتعامل النقدي مع هذه الأدوات.
ما الذي يمكن فعله عربيًا الآن؟
هناك مجموعة خطوات عملية يمكن لصانعي القرار في المنطقة التركيز عليها في المدى القريب:
- تحديث القوانين: تطوير أطر تشريعية خصوصًا في مجالات حماية البيانات، وحقوق المؤلف، والمسؤولية عن المخرجات الآلية.
- إنشاء هيئات رقابية متخصصة: كي لا تُترك التقنيات الجديدة لتقدير السوق فقط، مع إشراك خبراء في التقنية والقانون وعلم الاجتماع.
- دمج محو الأمية الرقمية في التعليم: ليس فقط تعليم استخدام الأدوات، بل فهم حدودها وأخطائها المحتملة.
- دعم البحث باللغة العربية: لضمان أن تكون النماذج قادرة على فهم السياق الثقافي واللغوي المحلي، بدل الاعتماد الكلي على نماذج مدرَّبة على بيانات أجنبية.
رسالة مات شومر وغيرها من الأصوات القلقة تصل في لحظة فارقة. تجاهلها بالكامل يحمل مخاطرة، والتسليم بها دون نقاش عقلاني مخاطرة أخرى. الطريق الوسط يقتضي الاعتراف بأن الذكاء الاصطناعي أصبح بنية تحتية جديدة للعالم، تمامًا مثل الكهرباء والإنترنت، وأن السؤال لم يعد “هل نستخدمه؟”، بل “كيف نستخدمه، ولصالح من، وتحت أي قواعد؟”.