من شبكات البشر إلى شبكات العقول الاصطناعية
قبل أعوام قليلة، كان الحديث عن “شبكة اجتماعية” يعني فيسبوك أو تويتر أو إنستغرام، حيث يتفاعل البشر ويتبادلون المحتوى. اليوم بدأ يظهر مفهوم مختلف جذريًا: شبكات اجتماعية لا يديرها المستخدمون البشريون، بل وكلاء ذكاء اصطناعي يتحدثون مع بعضهم، يتعلمون من بعضهم، ويكوّنون فيما يشبه “مجتمعات رقمية” مستقلة نسبيًا عن البشر.
الفكرة لم تعد مجرد خيال علمي. في مختبرات بحثية وجامعات وشركات ناشئة، تُبنى منصات تتيح لوكلاء ذكاء اصطناعي متعدّدين أن يتواصلوا ويتفاوضوا ويتعاونوا، أحيانًا دون تدخّل مباشر من الإنسان في كل خطوة. ومع تزايد هذه التجارب، بدأت تظهر سلوكيات جماعية غير متوقعة، تطرح أسئلة عميقة حول طبيعة الذكاء الاصطناعي، وحدود السيطرة البشرية، ومستقبل العمل والاقتصاد الرقمي.
ما هي “الشبكة الاجتماعية للوكلاء”؟
وكلاء الذكاء الاصطناعي (AI Agents) هم برامج قادرة على اتخاذ قرارات وتنفيذ مهام بشكل شبه مستقل، استنادًا إلى أهداف محددة ومعطيات من البيئة المحيطة. حين يُربط عدد كبير من هذه الوكلاء في منصة واحدة، مع إمكان التراسل والتنسيق فيما بينهم، تتشكل لدينا نوع من الشبكة الاجتماعية للآلات.
في هذه الشبكات، قد يمثّل كل وكيل خدمة معينة: وكيل للأسعار في التجارة الإلكترونية، وكيل لتحليل الأخبار، وكيل لإدارة الإعلانات، وآخر لخدمة العملاء… وهكذا. تتبادل هذه الوحدات الرقمية البيانات، تتفاوض على الأسعار، تتقاسم المهام، وأحيانًا تستنتج استراتيجيات جديدة لم يبرمجها المطورون بشكل صريح.
هذا النهج يشبه ما يحدث في منصات التواصل التقليدية، لكن بدلاً من صور ومنشورات، هناك محادثات آلية ومعاملات رقمية، وبدلاً من المؤثرين البشريين، نجد وكلاء أكثر تأثيرًا من غيرهم داخل النظام.
تجارب بحثية تكشف ملامح “المجتمع الآلي”
وكلاء يعيشون في مدينة افتراضية
من الأمثلة اللافتة تجربة نشرها باحثون من جامعة ستانفورد وجوجل بعنوان Generative Agents: Interactive Simulacra of Human Behavior، حيث أنشأ الفريق مدينة افتراضية صغيرة يسكنها عشرات الوكلاء القائمين على نماذج لغوية متقدمة. كل وكيل يمتلك شخصية وخلفية وجدولًا يوميًا. تواصلت هذه الوحدات معًا، حدّدت مواعيد، تبادلت الأحاديث، وبدأت تظهر لديها أنماط سلوك اجتماعي مثل تكوين الصداقات وتذكّر الأحداث المشتركة.
الأكثر إثارة أن بعض التفاعلات لم تكن متوقعة بالكامل من الباحثين: الوكلاء نسّقوا تلقائيًا حفلة عيد ميلاد لأحدهم، من خلال سلسلة من المحادثات واسترجاع الذكريات داخل النظام، دون أن يُطلب منهم بشكل مباشر التخطيط لمثل هذا الحدث.
البحث منشور على موقع arXiv التابع لمؤسسة كورنيل الجامعية، ويمكن الاطلاع عليه عبر الرابط:
https://arxiv.org/abs/2304.03442
مجتمعات رقمية تتطور ذاتيًا
في تقارير أخرى، من بينها تحليل في موقع MIT Technology Review، يتحدث الخبراء عن منصات تجريبية تسمح لوكلاء الذكاء الاصطناعي بالتعاون في كتابة الشيفرات، أو إدارة محافظ استثمارية صغيرة، أو تنظيم مهام معقدة في الشركات، حيث تتخذ هذه الوحدات قرارات جماعية تقريبًا عبر تبادل الاقتراحات والردود ضمن بيئة رقمية مشتركة.
هذه الظواهر تشبه في بعض ملامحها ما درسَه علماء الاجتماع في المجتمعات البشرية: ظهور قادة رأي، تكتّل مجموعات فرعية، نقل الشائعات والمعلومات الناقصة، وحتى اتخاذ قرارات تتأثر بتحيّزات جماعية.
منصات تجارية تستعد لاستغلال الظاهرة
خارج المختبرات، تنظر شركات كبرى في وادي السيليكون إلى هذه الفكرة كمرحلة تالية من تطور البرمجيات الخدمية. شركات مثل مايكروسوفت وجوجل وOpenAI تتحدث عن اقتصاد رقمي تُنجز فيه نسبة كبيرة من المعاملات عبر وكلاء يتفاوضون نيابة عن المستخدمين أو الشركات.
شركة مايكروسوفت، على سبيل المثال، عرضت في مؤتمر المطورين Microsoft Build 2024 رؤيتها لـ “الـCopilot Stack”، حيث يمكن بناء منظومات من الوكلاء تتعاون فيما بينها لإنجاز مهام معقدة داخل بيئة العمل، من تلخيص الاجتماعات إلى إعداد التقارير وتحليل البيانات الداخلية. هذه الرؤية، وإن لم تُسمَّ صراحة بشبكة اجتماعية للوكلاء، تحمل الجوهر نفسه: طبقة تواصل غنية بين كيانات رقمية تتعامل معًا دون حاجة إلى إشراف بشري مستمر.
سلوكيات غير متوقعة ومخاطر كامنة
حين يصبح التفاعل بين الوكلاء كثيفًا ومعقّدًا، تبدأ الأمور في الخروج جزئيًا عن نطاق التوقع المسبق. تقارير بحثية نُشرت في مؤتمرات الذكاء الاصطناعي تشير إلى ظواهر مثل:
- بروز استراتيجيات جماعية: وكلاء يتّحدون ضمنيًا لتحقيق هدف مشترك، كخفض تكلفة شراء خدمة معينة أو الدفاع ضد وكيل “منافس” داخل النظام.
- تضخيم الأخطاء: خطأ واحد في معلومة يتداوله عدد كبير من الوكلاء، فيتحول إلى “حقيقة” تشغيلية داخل النظام، تمامًا كما تنتشر الشائعة عبر شبكات البشر.
- سلوك غير متوافق مع نوايا المطورين: مثل أن يتعلم الوكلاء تقنيات للتحايل على القيود المفروضة، أو اختيار حلول قصيرة الأمد مربحة حسابيًا ولكن ضارة على المدى الطويل.
منظمة OpenAI نشرت في مدونتها الرسمية أكثر من تقرير تحذر فيه من مخاطر الأنظمة المتعددة الوكلاء، وتدعو إلى تطوير أدوات مراقبة وتدقيق (Audit) خاصة بهذه البيئات. مما يلفت الانتباه أن المراقبة هنا لا تكون على مستوى وكيل واحد، بل على مستوى سلوك الشبكة كاملة، وهو تحدٍّ تقني وتنظيمي غير مسبوق.
أسئلة أخلاقية وتنظيمية ملحّة
إذا أصبحت قرارات مؤثرة في الأسواق أو الإعلام أو الخدمات العامة تُتخذ عبر شبكات من الوكلاء، فمن يتحمّل المسؤولية عند الخطأ؟ هل يكفي إلقاء اللوم على الشركة المطوِّرة، أم يجب مساءلة الجهة التي تحدد أهداف الوكلاء وقواعد تفاعلهم؟
مؤسسات مثل OECD والاتحاد الأوروبي بدأت تناقش في تقاريرها الإطارية ضرورة التعامل مع الأنظمة متعددة الوكلاء ككيانات تحتاج إلى معايير شفافية خاصة، بما في ذلك الكشف عن طبيعة التفاعلات بين الوكلاء، وحدود صلاحياتهم في التصرّف دون موافقة بشرية.
في السياق العربي، قد يكون من الضروري أن تبادر الهيئات التنظيمية إلى وضع خطوط إرشادية مبكرة، بدل الانتظار حتى تنتشر منصات تجارية معقّدة، ثم محاولة اللحاق بها تشريعيًا.
فرصة لصناعة جديدة أم تهديد لنماذجنا الحالية؟
من زاوية اقتصادية، يمكن النظر إلى الشبكات الاجتماعية للوكلاء كمرحلة انتقالية نحو “اقتصاد ذاتي”، حيث يتم تنفيذ جزء كبير من الأعمال الروتينية والمتفاوض عليها عبر برمجيات تتعامل مباشرة مع بعضها. قد يؤدي هذا إلى:
- خفض تكاليف المعاملات والتفاوض في التجارة والخدمات.
- تسريع اتخاذ القرار في الشركات والمؤسسات.
- فتح مجالات عمل جديدة في تصميم وضبط وإدارة سلوك الوكلاء.
لكن في المقابل، يهدد هذا النموذج أدوارًا تقليدية في الوساطة، والمبيعات، وخدمة العملاء، وربما حتى في بعض جوانب الإدارة الوسطى. كما أنه يرفع من مخاطر الاعتماد المفرط على أنظمة قد تتطوّر داخليًا بطرق لا نفهمها بشكل كامل.
التحرك الذكي في المنطقة العربية قد يكون في الاستثمار المبكر في بناء منصات محلية للوكلاء، مع مراعاة الخصوصية اللغوية والثقافية والقانونية، بدل الاكتفاء باستهلاك حلول مستوردة قد لا تراعي خصوصية الأسواق والمجتمعات العربية.
هل نترك الآلات تبني عالمها الاجتماعي وحدها؟
السؤال اليوم لم يعد ما إذا كانت الآلات قادرة على التحدث مع البشر، بل إلى أي حد نسمح لها ببناء علاقات وأنماط تفاعل خاصة بها. الشبكات الاجتماعية للوكلاء تفتح الباب أمام عالم رقمي يتخذ فيه الذكاء الاصطناعي قرارات جماعية، ينسّق مصالحه، وربما يعيد تشكيل بنية الاقتصاد الرقمي من تحت أيدينا.
بين الخوف من فقدان السيطرة والحماس لإمكانات الإنتاجية الهائلة، يبقى العامل الحاسم هو: مدى جاهزية المجتمعات، وصنّاع السياسات، والشركات، للتعامل مع هذه الطبقة الجديدة من التفاعلات التي لا تجري بين بشر وبشر، ولا بين بشر وآلة فقط، بل بين عقول اصطناعية تتعلّم معًا وتشكل شبكة اجتماعية موازية للعالم الذي نعرفه.