منذ اللحظة الأولى لإعلان إطلاقه، بدا نموذج “GPT-5” وكأنه خطوة حاسمة في السباق المحموم نحو الذكاء الاصطناعي العام (AGI)، بفعل “الهالة” الخطابية التي سبقته، والتي غذّتها وعود كبار مهندسي وادي السيليكون بأننا على وشك تجاوز العتبات الأخيرة الفاصلة بين “الآلة الذكية” و“الآلة القادرة على التفكير”.
لكن خلف هذه الأجواء الحماسية، يلوح سؤال مركزي: هل نحن بالفعل أمام طفرة نوعية تقرّبنا من الذكاء العام، أم أمام نسخة محسّنة فقط من سابقتها؟
بادئ ذي بدء، لا يمكن
إنكار التحسينات الملموسة التي حملها GPT-5؛
فمحرك الفهم الدلالي أصبح أكثر حساسية للسياقات الدقيقة، وأقرب إلى أنماط التفكير التأويلي
التي عادةً ما تتميز بها قدرات الإنسان على الاستنتاج. وفي عدد من التجارب التي أُجريت
على نصوص فلسفية وفنية، أظهر النموذج قدرة مفاجئة على إنتاج قراءات نقدية تتجاوز إعادة
الصياغة إلى نوع من “التحليل المجادل”، وهو ما جعل بعض المختبرات الأكاديمية تتحدث
بالفعل عن ملامح أولية لنواة معرفية مرنة.
غير أن الحديث عن الذكاء
الاصطناعي العام يقتضي أكثر من مجرد قدرة على تحليل نصوص أو إنتاج تفسيرات معقدة. الذكاء
العام – كما حدّده آلان تورينغ وطورّه لاحقًا باحثون مثل يوشوا بنجيو – يفترض امتلاك
الآلة لثلاث خصائص كلية: «القدرة على الانتقال بين مجالات معرفية مختلفة»، «القدرة
على التعلّم الذاتي خارج نطاق البيانات المدرّبة»، و»القدرة على اتخاذ قرارات جديدة
في مواقف غير مألوفة». وفي هذه النقاط الثلاث، ما يزال GPT-5 يقدّم أداءً متفاوتًا: إذ لا يزال “أسيرًا”
إلى حدّ كبير لحجم البيانات التي تغذّيه، ويواجه صعوبة واضحة في الخروج من قوالب الاستجابة
المتوقعة عند الانتقال من مجال إلى آخر (مثلاً من تحليل نص أدبي إلى اختبار موقف بيولوجي
خالص).
من ناحية أخرى، تتزايد
المخاوف المتعلقة بما يمكن أن نصفه بـ «“الإبهار الوهمي”« – أي قدرة النموذج على إنتاج
إجابات دقيقة الصياغة ومتماسكة من الناحية البلاغية، لكنها في الجوهر مبنية على علاقة
سطحية بالموضوع. هذه الظاهرة أشار إليها باحثون من MIT في تقرير صدر في يوليو الجاري، حيث أظهروا
أن
GPT-5 يتعرض
لنسبة خطأ مضاعفة مقارنة بالإنسان عند التعامل مع سيناريوهات لا يمكن التنبؤ بها مسبقًا
أو لا تتوفر لها بيانات مشابهة في ذاكرته.
وإذا أضفنا إلى ذلك
مشكلة “إخفاء الانحياز” – أي انخراط النظام في إعادة إنتاج التحيّزات السياسية والثقافية
تحت مظهر الموضوعية – فإن الصورة تصبح أكثر تعقيدًا.
نشرت مجلة *Nature* قبل أيام دراسة تشير إلى أن النماذج الأكبر
حجمًا لا تتخلص من الانحياز، بل “تصقله” وتجعله أكثر خفاءً، وهذا ما يجعل مراقبته أصعب
بكثير من ذي قبل.
بالمقابل، تذهب بعض
الأصوات إلى أن الخطر الحقيقي لا يتمثل في “اقترابنا المفرط” من الذكاء العام، بل في
«تقديم النموذج نفسه كأنه قد أصبح كذلك». بمعنى آخر، الخطر لم يعد تقنيًا بقدر ما أصبح
معرفيًا: استعمال
GPT-5 (من
طرف الإعلام أو حتى بعض الباحثين) باعتباره معيارًا للحقيقة أو أداة تفسير مطلقة، بدل
النظر إليه كوسيط معرفي محدود.
إن ما يميّز المرحلة
الحالية ليس اقترابنا من الذكاء العام، بل هشاشة الحدود بين “الممكن” و“المُتخيَّل”.
وبدل أن نسأل: «هل وصل GPT-5 إلى مستوى الذكاء العام؟» ربما يجب أن نطرح سؤالًا أدق: «ما هي المعايير
التي تجعلنا نقول إن الذكاء الاصطناعي قد تجاوز عتبة “المحاكاة” ودخل مرحلة “الإبداع”؟»
حتى الآن، لا يبدو
أن
GPT-5 قد تجاوز
تلك العتبة، لكنه بلا شك جعلها أقرب من أي وقت مضى – ليس فقط من الناحية التقنية، وإنما
أيضًا من الناحية الثقافية؛ فقد غيّر تصوراتنا عمّا يمكن للآلة أن تقوم به. وفي ذلك
وحده، تكمن أهميته الأخطر والأكثر إثارة في آن.
> «مرجعــات»
> – تقرير MIT Technology Review (يوليو 2025) حول تقاطع التعلم
العميق والذكاء العام
> – دراسة منشورة في Nature: Hidden Bias in Large Language
Models (أغسطس
2025)
> – Y.
Bengio, *The Path Towards Artificial General Intelligence*, Springer, 2024
> – مقابلة مع Sam Altman في The Verge (يناير 2025)
0 التعليقات:
إرسال تعليق