تكشف صحيفة الغارديان في هذا التقرير الاستقصائي عن مخاطر جديدة مرتبطة باستخدام الذكاء الاصطناعي في البحث الصحي على الإنترنت، وذلك من خلال دراسة أداء ميزة AI Overviews في محرك بحث غوغل، وهي الميزة التي تُظهر للمستخدمين ملخصات ذكية أعلى نتائج البحث. يوضح التحقيق أن هذه الملخصات، التي يُفترض أن تساعد المستخدم على فهم المعلومات بسرعة، قد تتحول إلى مصدر خطر حقيقي عندما تتعلق بصحة الإنسان وتحاليله الطبية.
أخطاء طبية في قراءات تحاليل الدم
يركز التحقيق على الطريقة التي أجابت بها ميزة AI Overviews عن أسئلة المستخدمين حول نتائج تحاليل الدم وما إذا كانت تقع ضمن الحدود الطبيعية أم لا. في عدد من الحالات، قدمت الميزة تفسيرات غير دقيقة أو مضللة، فأشارت مثلاً إلى أن بعض القراءات «لا تدعو للقلق» بينما قد تكون في الواقع مؤشراً على مشكلة صحية تحتاج إلى متابعة عاجلة. بعض الإجابات بدت مطمئنة إلى درجة قد تدفع المريض إلى تأجيل زيارة الطبيب أو تجاهل أعراض مهمة، وهو ما يرفع احتمالات سوء التشخيص أو تفاقم الحالة الصحية.
رد غوغل وإزالة بعض الملخصات
بعد أن عرضت الغارديان على غوغل أمثلة محددة من الإجابات الخاطئة التي جرى توثيقها خلال التحقيق، أقدمت الشركة على إزالة عدد من تلك الملخصات من نتائج البحث. وأقرت غوغل بوجود مشكلات في بعض الإجابات التي تولدها الميزة، مؤكدة أنها تعمل على تحسين النماذج والخوارزميات التي تعتمد عليها AI Overviews، وأنها تجري مراجعات إضافية لمحاولة الحد من هذه الأخطاء، خاصة في المواضيع الحساسة مثل الصحة. مع ذلك، يبقى السؤال مطروحاً حول مدى جاهزية هذه التقنية للاستخدام الجماهيري في قضايا تمس حياة الإنسان مباشرة.
تحذيرات الأطباء والخبراء
وصف عدد من الأطباء والخبراء الذين استشهدت بهم الصحيفة ما كشفه التحقيق بأنه «خطير ومثير للقلق»، مشيرين إلى أن الاعتماد على هذه الإجابات دون مراجعة مختص قد يعرّض المرضى لمخاطر جسيمة. يرى هؤلاء أن المستخدم العادي يميل إلى منح ثقة كبيرة لما يظهر في واجهة بحث غوغل، وقد لا يملك القدرة على التمييز بين توصية مبنية على دليل طبي موثوق وأخرى صدرت عن نموذج ذكاء اصطناعي قد يخطئ أو يختلق معلومات. كما شددوا على أن المعلومات الصحية تحتاج إلى تدقيق صارم وإلى سياق طبي واضح، لا إلى عبارات عامة أو مبسطة قد يساء فهمها.
أبعاد تتجاوز المجال الصحي
لا يقتصر التحقيق على الجانب الطبي فقط، بل يلفت إلى أن مشكلات الدقة في AI Overviews تمتد أيضاً إلى مجالات أخرى، حيث رُصدت حالات قدّمت فيها الميزة معلومات خاطئة في موضوعات غير صحية. هذا يثير تساؤلات أوسع حول حدود الاعتماد على الملخصات الذكية في البحث، وحول مدى قدرة هذه الأنظمة على تقديم معرفة موثوقة في مختلف المجالات دون رقابة بشرية كافية. وتضع المقالة هذه الأخطاء ضمن سياق السباق المحموم الذي تخوضه شركات التكنولوجيا لإطلاق منتجات وخدمات مدعومة بالذكاء الاصطناعي بأسرع ما يمكن، أحياناً على حساب الاختبار المتأنّي والتأكد من السلامة والجودة.
سباق الذكاء الاصطناعي ومسؤولية الشركات
يخلص التقرير إلى أن تجربة غوغل مع AI Overviews تعكس معضلة أوسع في عالم الذكاء الاصطناعي: كيف يمكن الابتكار بسرعة مع الحفاظ في الوقت نفسه على معايير السلامة والمسؤولية تجاه المستخدمين. فحين يتعلق الأمر بالمعلومات الصحية، يصبح هامش الخطأ ضيقاً للغاية، وأي إجابة غير دقيقة قد تكون لها تبعات حقيقية على حياة الناس، ما يفرض على الشركات مزيداً من الشفافية والرقابة، وربما إعادة النظر في حدود ما يُسند إلى الأنظمة الآلية وما يجب أن يظل في يد الخبراء البشر.