علامة “صُنع بشريًا” لم تعد تكفي
حتى وقت قريب، كان السؤال الشائع في عالم الإبداع هو: هل يمكن للذكاء الاصطناعي أن ينتج أعمالًا تضاهي البشر؟ اليوم تغيّر السؤال: كيف يمكن لصانع محتوى أو مصمم أن يثبت أن عمله لم يستعن إطلاقًا بأدوات الذكاء الاصطناعي؟
منصات الأخبار التقنية مثل The Verge ناقشت هذه المعضلة بالتفصيل، مشيرة إلى محاولات اعتماد شعارات مثل Human-made أو “خالي من الذكاء الاصطناعي” كملصقات تعريفية على المحتوى والبصريات. لكن مشكلة هذه الشعارات أنها تعتمد بالكامل على الصدق الذاتي، من دون آلية تحقق مستقلة أو معيار تقني يمكن الرجوع إليه.
سياق عالمي: ثقة تهتز ومعايير لم تتشكل بعد
مع تسارع انتشار النماذج التوليدية مثل ChatGPT وMidjourney وDALL·E، بات إنتاج النصوص والصور والفيديو عالي الجودة متاحًا للجميع تقريبًا، وبكلفة تقترب من الصفر. تقارير عدة من منصات مثل MIT Technology Review وTechCrunch تناولت بقلق آثار هذا الواقع على سوق العمل الإبداعي وعلى ثقة الجمهور بما يقرأ ويشاهد.
من جهة أخرى، تحاول شركات التقنية الكبرى وضع أسس فنية للتمييز بين ما أنتجه البشر وما صنعته الآلات. تحالف شركات مثل Google وMicrosoft وAdobe في مبادرة Coalition for Content Provenance and Authenticity (C2PA) يهدف إلى تضمين “بصمات منشأ” في الملفات الرقمية، توضح متى وأين وكيف تم إنشاء المحتوى، وما إذا كانت أدوات الذكاء الاصطناعي جزءًا من العملية. لكن هذه المعايير ما زالت في بدايتها، ولا توجد بعد منظومة عالمية موحدة أو ملزمة.
أدوات كشف المحتوى الاصطناعي: وعود أكثر من يقين
في مواجهة هذا القلق، ظهرت فئة كاملة من الأدوات التي تعد بكشف ما إذا كان النص أو الصورة “من صنع الذكاء الاصطناعي”. بعض الجامعات والشركات التقنية طوّرت نماذج تحليل لغوي تحاول تمييز الأنماط الإحصائية للنصوص الاصطناعية، إلا أن النتائج حتى الآن متواضعة.
منظمة OpenAI نفسها أوقفت أداة كانت قد أطلقتها للكشف عن النصوص المولدة عبر نماذجها، بعد أن أقرت بأن دقتها منخفضة ومضللة في كثير من الحالات. كما حذرت تقارير من مؤسسات مثل Stanford Internet Observatory من الاعتماد المفرط على هذه الأدوات، لأنها قد تظلم كتّابًا حقيقيين بإعلان نصوصهم “مصطنعة” بالخطأ، أو تعجز عن كشف نصوص توليدية متقدمة.
المستوى نفسه من الإشكال ظهر مع الصور. مبادرات مثل Content Credentials المدعومة من Adobe وCNN وThe New York Times وغيرها، تسعى لإرفاق بيانات منشأ بالصور، لكن عدم التزام جميع المنصات والجهات المنتجة بهذه المعايير يجعلها حلًا جزئيًا فقط.
السمعة كمستودع ثقة أخير
أمام هذا الضباب، تشير تقارير The Verge وغيرها إلى عودة قوية لمفهوم قديم: السمعة. فغياب آلية تقنية موثوقة للتحقق يجعل سمعة الكاتب أو الفنان أو العلامة التجارية هي خط الدفاع الأساسي أمام اتهامات “المحتوى الاصطناعي”.
المنصات الإخبارية الكبرى بدأت بالفعل تضع سياسات واضحة لاستخدام الذكاء الاصطناعي في غرف الأخبار. موقع Associated Press مثلًا يوضح أن الذكاء الاصطناعي مسموح به في بعض العمليات التحريرية المساندة، لكن النص النهائي يجب أن يراجَع بشريًا بدقة، مع حظر استخدامه في توليد الأخبار دون إشراف. هذه الشفافية في السياسات تهدف إلى الحفاظ على الثقة مع الجمهور، حتى لو لم يكن بالإمكان تقنيًا إثبات كل سطر تمّت كتابته.
الوضع العربي: فجوة تنظيمية وفرصة لصناعة المعايير
في العالم العربي، ما زال الجدل حول الذكاء الاصطناعي يتركز غالبًا على فرص الوظائف والمخاطر العامة، بينما يتأخر الحديث عن قضايا مثل إثبات المنشأ وحقوق الملكية على الأعمال الرقمية. عدد محدود من المؤسسات الإعلامية العربية نشر سياسات تفصيلية حول استخدام الأدوات التوليدية، وغالبًا ما تبقى هذه الإرشادات داخلية وغير معلنة للجمهور.
هذا الفراغ التنظيمي قد يتحول إلى مشكلة حقيقية خلال سنوات قليلة. احتمالات انتشار صور مزيفة لساسة وشخصيات عامة، أو مقالات مفبركة منسوبة لصحف مرموقة، تتزايد كلما أصبحت الأدوات التوليدية أسهل استخدامًا وأعلى دقة. تجارب عالمية موثقة، مثل ما رصده The New York Times وBBC من حملات تضليل انتخابية مدعومة بصور وفيديوهات مزورة، ليست بعيدة عن المنطقة.
في المقابل، يمكن النظر إلى هذا التأخر كفرصة. الدول العربية التي تستثمر مبكرًا في تبني معايير مثل C2PA، أو تطوير بنية تحتية وطنية لتوثيق المحتوى الرسمي والإعلامي، قد تنجح في بناء ثقة أعلى بمحتواها مقارنة بأسواق أخرى. كذلك، يمكن للمنصات الإعلامية العربية الرائدة أن تقود نموذجًا شفافًا لتوضيح متى وكيف تستخدم الذكاء الاصطناعي، وما الذي يبقى عملًا بشريًا بالكامل.
هل توجد طريقة تقنية لإثبات “خلوّ العمل من الذكاء الاصطناعي”؟
في الوقت الحالي، الجواب الواقعي: لا توجد وسيلة تقنية مضمونة بنسبة 100٪. لا يمكن لمعايير المنشأ أو أدوات الكشف الحالية تأكيد أن نصًا أو تصميمًا ما لم يمر عبر أي أداة ذكية في أي مرحلة، خاصة إذا استخدم صانع المحتوى الذكاء الاصطناعي في مرحلة مبكرة ثم أعاد صياغة أو تعديل العمل يدويًا.
ما يمكن فعله اليوم أقرب إلى ترجيح الاحتمالات لا أكثر. وجود بيانات منشأ واضحة، وسجلات توثّق مراحل العمل (مثل ملفات التصميم المصدرية، أو مسودات النصوص، أو لقطات شاشة لعملية الإنتاج)، إلى جانب سياسة شفافة معلنة، يمكن أن يبني حجة قوية أمام الشركاء والعملاء والجمهور. لكنها تبقى حجة مبنية على الثقة والشفافية، لا على دليل رياضي قاطع.
استراتيجيات عملية لصنّاع المحتوى والمصممين
1. توثيق سير العمل
الاحتفاظ بالمسودات، وملفات التصميم المصدرية (PSD, AI, Figma)، وسجلات المراجعات، يمكن أن يكون وسيلة دفاعية عند التشكيك في الأصل البشري لعمل ما. هذا التوثيق مفيد أيضًا في إثبات حقوق الملكية الفكرية عند النزاعات.
2. تبني معايير المنشأ حيثما أمكن
الاستفادة من الأدوات التي تدعم معايير مثل C2PA أو Content Credentials تمنح الأعمال طبقة إضافية من الموثوقية. حتى لو لم تكن هذه المعايير معتمدة عالميًا بعد، فإن الالتزام بها مبكرًا يرسل إشارة إيجابية للسوق.
3. الشفافية مع العملاء والجمهور
إعلان سياسة واضحة: هل تستخدم الذكاء الاصطناعي؟ في أي مراحل؟ وهل تقدم خيارًا بعمل “بشري بالكامل”؟ يساعد في إدارة التوقعات وبناء علاقة تقوم على الصراحة بدلًا من محاولة الإخفاء، التي قد تنقلب ضد المنتج فور اكتشاف أي تناقض.
4. الاستثمار في السمعة الشخصية والمهنية
بناء حضور مهني موثوق، عبر أعمال متراكمة وتعاونات مع مؤسسات معتبرة، سيظل عاملًا حاسمًا. عندما يُعرف عن مصمم أو كاتب أنه يحترم الأمانة المهنية ويصرّح بأدواته، يصبح شعار “صُنع بشريًا” أكثر من مجرد ملصق دعائي.
المستقبل: مزيج من التقنية والقانون والثقافة
مع اقتراب جودة المخرجات التوليدية من الأعمال البشرية، يتضح أن سؤال “من كتب هذا؟” أو “من صمّم ذاك؟” لن يجد جوابًا في خوارزمية واحدة، بل في مزيج من المعايير التقنية، والأطر القانونية، وأعراف المهنة.
في النهاية، قد يكون الحكم الأهم ليس ما إذا كان العمل خاليًا بالكامل من الذكاء الاصطناعي، بل ما إذا كان استخدام الذكاء الاصطناعي معلنًا وعادلاً ومسؤولًا. أما معضلة إثبات “الخلوّ التام”، فستبقى – على الأرجح – أقرب إلى وعد تسويقي صعب التحقق، إلا إذا نجحت مبادرات توثيق المحتوى في التحول إلى بنية تحتية رقمية معيارية يتبناها الجميع.