الفصـــل 25 من دستور المملكة : حرية الفكر والرأي والتعبير مكفولة بكل أشكالها. حرية الإبداع والنشر والعرض في المجالات الأدبية والفنية والبحت العلمي, والتقني مضمونة.


الاثنين، أكتوبر 13، 2025

عندما يُصاب الذكاء الاصطناعي بالتسمّم

 


باحثون يحذرون من خطر التلاعب بنماذج الذكاء الاصطناعي مثل ChatGPT وGemini

حذّر فريق من الباحثين في بريطانيا من تهديد متزايد يواجه أنظمة الذكاء الاصطناعي الكبرى مثل ChatGPT وGemini، يتمثل في إمكانية “تسميمها” عبر إدخال بيانات مضللة أثناء مراحل تدريبها أو تحديثها الدوري على الإنترنت.

خطر التلاعب بالبيانات

في دراسة مشتركة بين مركز الذكاء الاصطناعي البريطاني ومعهد آلان تورينغ وشركة Anthropic المتخصصة في تطوير الذكاء الاصطناعي الآمن، أثبت العلماء أن أي جهة يمكنها نظريًا زرع معلومات زائفة أو منحازة داخل المصادر التي تعتمدها النماذج اللغوية للتعلّم، مما يؤدي إلى تغيير سلوك النموذج أو تشويه نتائجه.

وخلال التجربة، تم إدخال نحو 250 وثيقة "ملوّثة" تحتوي على معلومات مغلوطة في مصادر مفتوحة تشبه تلك التي تُستخدم عادة لتغذية أنظمة الذكاء الاصطناعي. وبعد فترة قصيرة، بدأت النماذج تنتج إجابات غريبة أو منحازة، وتكرّر معلومات غير دقيقة كأنها حقائق مؤكدة.

الإنترنت... باب خلفي للهجوم

يرى الباحثون أن الفضاء المفتوح للإنترنت هو الثغرة الأخطر في هذا المجال. إذ يمكن لأي شخص نشر مقالات أو بيانات زائفة في موسوعات رقمية مثل ويكيبيديا أو منتديات متخصصة أو أرشيفات أكاديمية وهمية، ليتبنّاها النظام تلقائيًا أثناء تحديث بياناته، دون أن يدرك أنها تحمل سمًّا معرفيًا خفيًا.

هذا السيناريو يُعرف في الأوساط التقنية باسم "Data Poisoning" أو "تسميم البيانات"، وهو أسلوب قد يُستخدم مستقبلًا لتضليل الأنظمة الذكية في المجالات الاقتصادية أو السياسية أو الأمنية.

تهديد موثوقية الذكاء الاصطناعي

يُحذر الخبراء من أن موثوقية الذكاء الاصطناعي مهددة ما لم تُوضع ضوابط صارمة لمصادر البيانات وآليات التحقق من صحتها. فالذكاء الاصطناعي، مهما بلغ من التقدّم، يبقى مرآة للمعرفة التي يُغذّى بها؛ فإن تلوّثت مصادره، فستنعكس العدوى في نصوصه وتحليلاته.

ويضيف أحد المشاركين في الدراسة:

“الأمر لا يحتاج إلى قرصنة تقليدية، بل يكفي نشر كم صغير من المحتوى المضلل في المكان المناسب، ليتحوّل الذكاء الاصطناعي إلى ناقل غير مقصود للمعلومات المغلوطة.”

نحو "ذكاء نظيف"

توصي الدراسة بإنشاء آليات مراقبة وفحص دوري لمصادر البيانات المفتوحة، وتطوير ما يُعرف بـ أنظمة التنقية التلقائية للبيانات (Data Sanitization) القادرة على كشف المحتوى المريب قبل دخوله في بيئة التدريب.

كما دعت إلى تعاون دولي بين المؤسسات البحثية وشركات التكنولوجيا لوضع بروتوكولات حماية تضمن الشفافية والموثوقية في عصر تتزايد فيه قدرة الذكاء الاصطناعي على التأثير في الرأي العام، وصناعة القرار، وحتى تشكيل الوعي الجمعي.


0 التعليقات: