الفصـــل 25 من دستور المملكة : حرية الفكر والرأي والتعبير مكفولة بكل أشكالها. حرية الإبداع والنشر والعرض في المجالات الأدبية والفنية والبحت العلمي, والتقني مضمونة.


إعلانات أفقية

الخميس، ديسمبر 18، 2025

كيف تُعيد المساعدات الذكية تشكيل الحقيقة العامة: عبده حقي


 لم يعد التضليل الرقمي حادثة عابرة أو نتاج منشورٍ كاذبٍ معزول، بل صار منظومةً متكاملةً تتغذّى على سرعة التداول، وتستفيد من هشاشة الثقة، وتستثمر في الاقتصاد العاطفي للانتباه. في قلب هذه المنظومة تقف «المساعدات الرقمية»—من محركات البحث إلى روبوتات المحادثة—بوصفها وسطاء جددًا للحقيقة، تُعيد ترتيب ما نعرفه وكيف نعرفه، وأحيانًا لماذا نصدّقه.

تتشكل «بيئات التضليل» كما تتشكل الدلتا عند مصبّات الأنهار: روافد متعددة تصب في مجرى واحد. منصّات اجتماعية تُكافئ المحتوى الصادم، خوارزميات توصية تُفضّل ما يثير التفاعل، اقتصاد إعلاني يقيس القيمة بالثواني لا بالدقة، ومجتمعات رقمية مغلقة تُعيد إنتاج القناعات حتى تتحول إلى يقين. في هذا السياق، لا يعمل التضليل بوصفه كذبًا فجًّا فحسب، بل كحقيقةٍ ناقصةٍ أو مُحرَّفةٍ بعناية، تتسلل إلى الوعي كما يتسلل الضباب في صباحٍ ساحلي.

هنا يبرز دور المساعدات الرقمية بوصفها بواباتٍ معرفية. فهي لا «تخلق» المعرفة من عدم، لكنها تنتقي وتلخّص وتُبرز، وبذلك تُحدّد الإطار الذي تُفهم داخله الوقائع. يشير كتاب The Attention Merchants لتيم وو إلى أن اقتصاد الانتباه يعيد صياغة أولويات المحتوى، بينما يوضح شوشانا زوبوف في The Age of Surveillance Capitalism كيف تُحوَّل البيانات إلى سلطة تنبؤية. عندما تعمل المساعدات الرقمية داخل هذا الاقتصاد، فإن حيادها المعلن يصطدم بواقعٍ خوارزميٍّ محكومٍ بالمقاييس.

ليست المشكلة في الخطأ وحده، بل في «الانتقاء». فالمعلومة الصحيحة قد تُعرض بلا سياق، أو تُقرن بسياقٍ يغيّر دلالتها. وقد أظهرت دراسات حديثة في أخلاقيات الذكاء الاصطناعي—منها تقارير صادرة عن اليونسكو حول الذكاء الاصطناعي المسؤول—أن مخاطر التحيّز لا تتعلق بالمحتوى فقط، بل بالبنية التي تُقرّر ما يظهر أولًا وما يُخفى لاحقًا. هكذا يتحول السؤال من «هل المعلومة صحيحة؟» إلى «أي حقيقة تُقدَّم، ولمن، وفي أي ترتيب؟».

تتضاعف الإشكالية في الأزمات. خلال جائحة كوفيد-19، رصدت تقارير منظمة الصحة العالمية «وباء المعلومات»، حيث تداخلت نصائح طبية صحيحة مع شائعات قاتلة. وفي النزاعات الجيوسياسية الراهنة، تُستخدم منصّات الذكاء الاصطناعي أحيانًا لتكثيف السرديات المتصارعة، لا لتفكيكها. في مثل هذه اللحظات، يصبح المساعد الرقمي شبيهًا بمرآةٍ مكسورة: يعكس أجزاءً حقيقية، لكن الصورة الكلية تظل مُشوَّهة.

مع ذلك، لا يمكن اختزال الدور في السلبية. فالمساعدات الرقمية قادرة—إذا صُمِّمت وحُوكِمت بعناية—على أن تكون أدواتٍ للتدقيق والتنوير. نماذج الإحالة إلى المصادر، والتنبيه إلى عدم اليقين، وتقديم وجهات نظر متعددة، كلها ممارسات تقلّص مساحة التضليل. يشير كاس سنستين في #Republic إلى أهمية «التعرّض المتقاطع» للأفكار في حماية المجال العام. ويمكن ترجمة هذا المبدأ خوارزميًا عبر توسيع نافذة الاطلاع بدل تضييقها.

الرهان إذن أخلاقي وسياسي بقدر ما هو تقني. فحوكمة المساعدات الرقمية تتطلب شفافية في التدريب، ومساءلة في التوصية، وتثقيفًا رقميًا للمستخدم. كما تتطلب شراكةً بين الباحثين والصحفيين وصنّاع السياسات، حتى لا تُترك الحقيقة رهينةً لمنطق السوق وحده. فالذكاء الاصطناعي—مثل النهر—قد يُروي الأرض أو يُغرقها؛ والفرق يصنعه السدّ، لا الماء.

في النهاية، ليست «بيئات التضليل» قدرًا محتومًا، ولا المساعدات الرقمية خصمًا بالضرورة. إنهما مرآتان لخياراتنا الجمعية: كيف نبني الأدوات، وكيف نستخدمها، وأي قيم نُدرِجها في شيفرتها. وبين ضجيج الإشاعة وهمس الدقة، يبقى السؤال مفتوحًا: هل نريد مساعدين يسرّعون الاستهلاك، أم شركاء يوسّعون الفهم؟ هذا السؤال—لا الخوارزمية وحدها—هو ما سيحدد شكل الحقيقة العامة في العصر الرقمي.

0 التعليقات: