الفصـــل 25 من دستور المملكة : حرية الفكر والرأي والتعبير مكفولة بكل أشكالها. حرية الإبداع والنشر والعرض في المجالات الأدبية والفنية والبحت العلمي, والتقني مضمونة.


الثلاثاء، مايو 28، 2024

في دراسة جديدة شات جي بي تي يجيب على أسئلة البرمجة بشكل غير صحيح بنسبة 52%


ومما زاد الطين بلة أن المبرمجين المشاركين في الدراسة غالبًا ما يتجاهلون المعلومات الخاطئة.

يتم بيع روبوتات الدردشة ذات الذكاء الاصطناعي مثل شات جي بي تي من OpenAI كأدوات ثورية يمكن أن تساعد العمال على أن يصبحوا أكثر كفاءة في وظائفهم، وربما تحل محل هؤلاء الأشخاص بالكامل في المستقبل. لكن دراسة جديدة مذهلة وجدت أن شات جي بي تي يجيب على أسئلة برمجة الكمبيوتر بشكل غير صحيح بنسبة 52٪ من الوقت.

تم تقديم البحث من جامعة بوردو، والذي تم رصده لأول مرة من قبل منفذ الأخبار فوتوريسم Futurism ، ​​في وقت سابق من هذا الشهر في مؤتمر التفاعل بين الكمبيوتر والإنسان في هاواي، ونظر في 517 سؤالًا برمجيًا على Stack Overflow والتي تم إدخالها بعد ذلك إلى شات جي بي تي.

وأوضحت الدراسة الجديدة: "يظهر تحليلنا أن 52% من إجابات شات جي بي تي تحتوي على معلومات غير صحيحة و77% منها مطولة". "ومع ذلك، لا يزال المشاركون في دراسة المستخدمين يفضلون إجابات شات جي بي تي بنسبة 35% من الوقت نظرًا لشموليتها وأسلوبها اللغوي الواضح."

ومن المثير للقلق أن المبرمجين المشاركين في الدراسة لم يتمكنوا دائمًا من اكتشاف الأخطاء التي يرتكبها برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي.

"ومع ذلك، فقد تجاهلوا أيضًا المعلومات الخاطئة في إجابات شات جي بي تي بنسبة 39٪ من الوقت"، وفقًا للدراسة. "وهذا يعني الحاجة إلى مواجهة المعلومات الخاطئة في إجابات شات جي بي تي على أسئلة البرمجة وزيادة الوعي بالمخاطر المرتبطة بالإجابات التي تبدو صحيحة."

من الواضح أن هذه مجرد دراسة واحدة متاحة للقراءة عبر الإنترنت ، ولكنها تشير إلى مشكلات يمكن لأي شخص يستخدم هذه الأدوات أن يرتبط بها. تضخ شركات التكنولوجيا الكبرى مليارات الدولارات في مجال الذكاء الاصطناعي في الوقت الحالي في محاولة لتقديم روبوتات الدردشة الأكثر موثوقية. تتنافس شركات ميتا ومايكروسوفت وجوجل للسيطرة على مساحة ناشئة لديها القدرة على إعادة تشكيل علاقتنا بالإنترنت بشكل جذري. ولكن هناك عدد من العقبات التي تقف في الطريق.

ومن أهم هذه المشاكل أن الذكاء الاصطناعي لا يمكن الاعتماد عليه في كثير من الأحيان، خاصة إذا طرح مستخدم معين سؤالاً فريدًا حقًا. يقوم محرك البحث الجديد المدعوم بالذكاء الاصطناعي من غوغل بإلقاء القمامة التي يتم جمعها غالبًا من مصادر غير موثوقة. في الواقع، كانت هناك عدة مرات هذا الأسبوع قدم فيها بحث غوغل مقالات ساخرة من The Onion كمعلومات يمكن الاعتماد عليها .

0 التعليقات: