شهدت شركة OpenAI أزمة غير مسبوقة عقب إطلاق نموذجها GPT-5 في أغسطس 2025، بعدما قوبل الإعلان بموجة غضب واسعة من المستخدمين، الذين اعتبروا إيقاف النماذج السابقة مثل GPT-4 وGPT-4o خيانة لثقتهم، بل ومسًّا بعلاقات عاطفية تشكلت مع هذه النماذج عبر سنوات. الأزمة تعززت بحدث رمزي في سان فرانسيسكو، حيث أقيمت "جنازة" لنموذج ذكاء اصطناعي آخر (Claude 3) لتجسيد حجم الارتباط الإنساني بالتقنيات الحديثة.
مع تصاعد الاحتجاجات في منصات التواصل ومنتدى Reddit، تحرك الرئيس التنفيذي سام ألتمان سريعًا، معترفًا بالخطأ ومعلنًا عن إجراءات تهدئة، شملت إعادة GPT-4o للخدمة، وزيادة حدود الاستدلال المنطقي في GPT-5، وإظهار اسم النموذج المستخدم في كل استفسار لتعزيز الشفافية.
المقال يبرز أن العلاقة بين البشر والذكاء الاصطناعي تخطت حدود الاستخدام التقني، لتصبح رابطة وجدانية ونفسية، ما يفرض على شركات التكنولوجيا إعادة النظر في طريقة إدارتها لهذه التغييرات. الأزمة كشفت ثلاثة دروس أساسية: عدم إيقاف النماذج فجأة، أولوية الشفافية والتحكم للمستخدم، والتعامل بحذر شديد مع التغييرات في منتجات يستخدمها مئات الملايين، على غرار فيسبوك وجوجل.
في النهاية، أثبتت الأزمة أن الذكاء الاصطناعي لم يعد أداة اختيارية، بل مكوّنًا من النسيج الاجتماعي والثقافي، ما يحمّل مطوريه مسؤولية كبرى في إدارة هذه العلاقة الحساسة.
0 التعليقات:
إرسال تعليق