التفاعلات الاجتماعية تكشف محدوديته
رغم التقدم المذهل الذي حققه الذكاء الاصطناعي في السنوات الأخيرة، ورغم قدرته المتزايدة على توليد النصوص، تحليل الصور، وتحديد الأنماط بدقة حسابية لا تعرف التعب، فإن اختباره في حقل التفاعلات الاجتماعية البشرية يُظهر محدوديته الفعلية. هذا ما كشفته
دراسة جديدة صادرة عن جامعة "جونز هوبكينز"، حيث سلّطت الضوء على الهوة العميقة بين الفهم البشري للمشاهد الاجتماعية وبين أداء أنظمة الذكاء الاصطناعي، حتى الأكثر تطورًا منها.في مؤتمر دولي بارز
حول تمثيلات التعلم والذكاء الاصطناعي عُقد في أبريل 2025، قدّم فريق البحث بقيادة
البروفيسورة ليلى إسِك نتائج تضع الذكاء الاصطناعي أمام مرآة حرجة: لم يتمكن من تفسير
الإيماءات، أو استنتاج النوايا، أو حتى إدراك اللحظة التي يتحول فيها حديث بين شخصين
إلى رغبة في عبور الطريق. بمعنى آخر، ما زال الذكاء الاصطناعي غير قادر على "قراءة
ما بين السطور" الاجتماعية.
الدراسة استندت إلى
تجربة دقيقة: عُرضت مقاطع فيديو قصيرة مدتها ثلاث ثوانٍ على عدد من البشر وطُلب منهم
تقييم خصائص المشهد الاجتماعية، كالتواصل البصري، أو المشاركة في نشاط مشترك، أو مجرد
التواجد في نفس الفضاء دون تفاعل. بعدها، خضعت 350 نموذجًا من نماذج الذكاء الاصطناعي
- ما بين تلك المدربة على اللغة، أو الصور الثابتة، أو الفيديوهات - لنفس الاختبار.
النتيجة كانت واضحة: الإجابات البشرية كانت متقاربة، منسجمة، وغنية بالفهم الضمني.
أما النماذج، فلم تتمكن من مجاراة ذلك، وظلّت متخبطة بين التفسير الحرفي والقراءة السطحية.
النماذج اللغوية، رغم
كونها الأفضل أداءً بين نظيراتها، بقيت عاجزة عن الوصول إلى نفس العمق البشري. أما
النماذج المعتمدة على الفيديو والصور، ففشلت في التمييز بين من يتحدث ومن يستعد للحركة،
أو بين من يتفاعل ومن يبقى متفرجًا. هذا الفشل لا يتعلق فقط بالدقة، بل بمحدودية البنية
المعرفية التي بُنيت عليها هذه النماذج، والمستوحاة من أجزاء الدماغ المعالجة للصور
الثابتة، بينما تتعامل التفاعلات الاجتماعية مع ديناميات مختلفة تنشط مناطق دماغية
أكثر تعقيدًا وتفاعلًا.
كما قالت الباحثة كاثي
غارسيا، أحد أعضاء الفريق: "أن ترى صورة وتتعرف على الوجوه أو الأشياء، لم يعد
كافيًا. العالم لا يُجمَّد في مشهد. الحياة تتحرك، والمشاعر تتقاطع، والنوايا تُفهم
من نظرة أو تردد في الخطى".
ما تكشفه هذه الدراسة
يتجاوز حدود الروبوتات والسيارات ذاتية القيادة؛ إنه يضعنا أمام حدود الإدراك الاصطناعي
ذاته. إذ إن القدرات التي نبني عليها الثقة في هذه النماذج، من حيث الأداء والسلوك
في البيئات العامة، تعتمد على افتراض أنها تفهم ما يدور حولها كما نفعل نحن. لكن الواقع
- كما تشير الدراسة - أن الذكاء الاصطناعي لا يزال غير قادر على اللحاق بالبشر عندما
يتعلق الأمر بالفهم الحدسي والسياقي للمواقف الاجتماعية.
ما يزيد من أهمية هذه
النتائج هو ارتباطها المباشر بتطبيقات حيوية: روبوتات رعاية المسنين، مساعدات التعليم
الرقمي، الأنظمة الأمنية، وحتى الأنظمة التفاعلية في المدن الذكية. إذا لم يكن الذكاء
الاصطناعي قادرًا على التمييز بين محادثة ودعوة صامتة للمساعدة، أو بين قلق شخص وعزيمته،
فإن ذلك يفتح بابًا واسعًا أمام أخطاء في التفاعل البشري التلقائي مع هذه الأنظمة.
ربما نكون قد بلغنا
مرحلة يستطيع فيها الذكاء الاصطناعي توليد مقال شبيه بهذا الذي تقرأه الآن، لكنه لا
يزال - كما يبدو - بعيدًا عن كتابة مشهد اجتماعي بسيط من حياة البشر، أو فهم لحظة صمت
بين أم وابنها في انتظار حافلة لا تأتي.
هل تعتقد أن الذكاء
الاصطناعي سيصل يومًا إلى فهم اجتماعي فعلي يشبه إدراك الإنسان؟
0 التعليقات:
إرسال تعليق