آبل تدخل سباق «الكلام الصامت» عبر استحواذ استراتيجي
كشفت تقارير تقنية عن استحواذ آبل على شركة Q.ai الناشئة، المتخصصة في ما يعرف بتقنية «الكلام الصامت»؛ وهي تقنيات تتيح قراءة ما ينطق به المستخدم عبر إشارات العضلات في الوجه والفك، حتى من دون إصدار صوت مسموع. خطوة تعكس توجّه آبل نحو جيل جديد من واجهات التفاعل مع الأجهزة، يتجاوز اللمس والصوت التقليدي إلى تواصل أكثر خصوصية وهدوءًا مع الذكاء الاصطناعي الشخصي.
ما هي تقنية «الكلام الصامت»؟
تعتمد تقنية «الكلام الصامت» على التقاط الإشارات الكهربائية الدقيقة التي تولّدها العضلات المسؤولة عن النطق وحركة الفم، ثم تحويلها إلى كلمات أو أوامر مفهومة عبر نماذج ذكاء اصطناعي متقدمة. بهذه الطريقة يمكن للمستخدم أن «يتحدث» مع جهازه أو مساعده الذكي من دون تحريك شفتيه بشكل واضح أو إصدار صوت مسموع للآخرين.
هذه الفكرة ليست خيالاً علميًا بالكامل؛ فقد سبق أن عرضت شركات مثل Meta وNeuralink وفرق بحثية في MIT نماذج أولية تستطيع ترجمة إشارات عصبية أو عضلية إلى نصوص، وإن كانت في مراحل تجريبية مبكرة. الجديد في استحواذ آبل هو محاولة إدخال هذا النوع من التقنية إلى منظومة استهلاكية واسعة مثل iPhone وApple Watch وVision Pro.
لماذا تهتم آبل بالكلام الصامت؟
خلال السنوات الماضية، ركّزت آبل على جعل أجهزتها أكثر التصاقًا بالحياة اليومية للمستخدم: ساعة في المعصم، سماعة في الأذن، نظارة على العين، وهاتف لا يفارق اليد. لكن واجهات التفاعل ما زالت تقليدية نسبيًا: لمس، أوامر صوتية مع Siri، ولوحة مفاتيح.
تقنية الكلام الصامت تفتح الباب أمام:
- تحكم خفي وشخصي: استخدام المساعد الصوتي أو كتابة الردود من دون أن يسمع أحد ما يقال، خصوصًا في الأماكن العامة أو الاجتماعات.
- تجربة واقع معزز أكثر سلاسة: خاصة مع أجهزة مثل Apple Vision Pro، حيث لا يكون من العملي دائمًا الكلام بصوت عال أو استخدام الإيماءات الكبيرة.
- دعم ذوي الإعاقة: مساعدة الأشخاص الذين يعانون من صعوبات في الكلام أو الحركة على التواصل مع أجهزتهم بشكل أيسر وأكثر طبيعية.
ذكاء اصطناعي «صامت» يناسب فلسفة آبل
تسعى آبل في السنوات الأخيرة إلى تقديم صورة مختلفة للذكاء الاصطناعي، تركز على الخصوصية والعمل على الجهاز بدل الاعتماد الكامل على السحابة، كما ظهر في إعلانها عن Apple Intelligence خلال مؤتمر المطورين WWDC 2024. تقنية الكلام الصامت تكمّل هذه الرؤية؛ إذ تتيح تواصلاً شخصيًا جدًا بين المستخدم وجهازه دون ضوضاء أو مشاركة لحظية لما يقوله مع المحيط.
يرى بعض الخبراء أن آبل تحاول بناء طبقة «ذكاء اصطناعي شخصي» ملاصقة للجسم، حيث يتحول الهاتف والساعة والسماعات إلى شبكة أجهزة تتلقى إشارات من حركة العين، نبض القلب، نشاط العضلات، وحتى المحاولات الصامتة للكلام، ثم تترجمها إلى أفعال وتوصيات مخصصة. مثل هذا السيناريو كان محور نقاشات عديدة في أوساط الباحثين في التفاعل الإنسان-آلة، خاصة في مؤسسات مثل MIT Media Lab، التي عملت على أنظمة تشبه «الحديث الداخلي الرقمي» عبر واجهات تُلبَس على الوجه والفك.
السياق العالمي: سباق على واجهات الدمج بين الإنسان والآلة
الاستحواذ يأتي وسط سباق عالمي على الجيل القادم من واجهات الاستخدام. Meta تستثمر في أساور وحساسات تلتقط إشارات العضلات في اليد للتحكم بالواقع الافتراضي والواقع المعزز، كما عرضت في بعض فعالياتها التقنية. وفي المقابل، تركز Neuralink على زراعة شرائح في الدماغ للتواصل المباشر مع الحاسوب، وهو نمط أكثر تطرفًا وجدلاً.
آبل عادة ما تتجنب الحلول الجذرية التي تتطلب جراحة أو تغييرات كبيرة في نمط الحياة، وتركز بدلاً من ذلك على دمج تقنيات دقيقة داخل أجهزة مألوفة للمستخدم. لذلك يبدو أن خيار «الكلام الصامت» عبر التقاط إشارات العضلات الوجهية ينسجم مع أسلوبها في تبني التكنولوجيا: ببطء، لكن على نطاق جماهيري واسع حين تنضج.
تحديات تقنية وأخلاقية لا يمكن تجاهلها
لكن المسار ليس خاليًا من الأسئلة الصعبة. تقنية تقرأ إشارات العضلات المرتبطة بالكلام تلامس منطقة حساسة بين ما نفكر فيه وما ننطقه فعليًا. هل يمكن للنظام أن يلتقط «محاولات الكلام» غير المقصودة؟ كيف ستضمن الشركات أن ما يجري التقاطه لن يُستغل لأغراض دعائية أو رقابية؟
من الناحية التقنية، تشير دراسات منشورة في مجلات علمية متخصصة إلى أن دقة قراءة الكلام الصامت ما زالت محدودة، وتختلف بين مستخدم وآخر، وتتطلب تدريبًا شخصيًا للنظام. كما أن دعم لغات متعددة، بينها العربية بلهجاتها المختلفة، يمثل تحديًا مضاعفًا مقارنة بالإنجليزية.
خبراء خصوصية يحذرون من أن جمع إشارات حيوية دقيقة مثل نشاط العضلات والدماغ والقلب، حتى لو كان بهدف تحسين تجربة المستخدم، قد يخلق طبقة جديدة من البيانات الحساسة لا تزال الأطر القانونية العالمية عاجزة عن تنظيمها بالكامل. في هذا السياق، يُنتظر من آبل أن تقدّم توضيحات تقنية وقانونية حول كيفية تخزين هذه البيانات ومعالجتها، وما إذا كانت ستبقى على الجهاز كما هو الشعار الذي ترفعه الشركة في معظم خدماتها.
مستقبل التفاعل مع الأجهزة: همس أم صمت تام؟
مع هذا النوع من الاستحواذات، يتضح أن الجيل القادم من الأجهزة لن يكتفي بشاشات أعلى دقة أو معالجات أسرع، بل سيذهب أبعد نحو دمج الجهاز في الجسد والحركات الدقيقة، وحتى في محاولات الكلام غير المسموعة. إذا نجحت آبل في تحويل تقنية الكلام الصامت إلى منتج جاهز للمستهلك، فقد نرى خلال سنوات معدودة أشخاصًا يتواصلون مع هواتفهم ونظاراتهم كما لو كانوا يهمسون لأنفسهم، بينما تتولى خوارزميات الذكاء الاصطناعي ترجمة هذا «الهمس الخفي» إلى أوامر ورسائل وأعمال.
تجربة ربما تغيّر شكل استخدامنا للأجهزة في العالم كله، بما في ذلك العالم العربي، وتفتح نقاشًا جديدًا حول الحدود الفاصلة بين الإنسان وتقنياته الشخصية.