الفصـــل 25 من دستور المملكة : حرية الفكر والرأي والتعبير مكفولة بكل أشكالها. حرية الإبداع والنشر والعرض في المجالات الأدبية والفنية والبحت العلمي, والتقني مضمونة.


الخميس، يوليو 17، 2025

كيف يُعيد الذكاء الاصطناعي تشكيل تجربة الأخبار الشخصية؟: ترجمة عبده حقي


لم يعد السؤال المطروح هو «ما الذي يحدث في العالم؟» بل بات: «أي جزء من هذا العالم يجب أن يصلني أولاً؟» في هذا السياق، برز الذكاء الاصطناعي بوصفه وسيطًا جديدًا بين القارئ والحدث، لا يكتفي بإيصال المعلومة، بل يُعيد ترتيبها وتكييفها على مقاس المستخدم. ولعل هذا التحول الدقيق، الذي يجمع بين الحسابات الرياضية وعلم النفس السلوكي، يطرح أسئلة عميقة حول حرية الاختيار، وحياد الوسيط، ومستقبل الصحافة ككل.

لطالما سعت الصحافة إلى مخاطبة "القارئ النموذجي"، ذلك الكائن الافتراضي الذي يفترض فيه الاهتمام بالشأن العام، والتفاعل مع الأخبار بشكل عقلاني ومنطقي. غير أن ظهور أنظمة الذكاء الاصطناعي القائمة على التعلم العميق (Deep Learning) أدخل متغيرًا نوعيًا على هذه العلاقة. فبدلًا من تصور قارئ نموذجي، باتت المنصات الرقمية تسعى لفهم "كل قارئ على حدة"، من خلال تحليل أنماط التصفح، واختيارات القراءة، والميول السياسية، وحتى الانفعالات السريعة إزاء مواد بعينها. وبهذا، لم تعد تجربة القراءة تجربة جماعية تؤسس لوعي مشترك، بل تحولت إلى عملية فردية، محاطة بهالة من الخصوصية المُبرمجة.

يشير الباحث الأمريكي إليا كولمان، في ورقته المنشورة بمجلة

 «AI & Society» (2022)، إلى أن خوارزميات التخصيص الإخباري "تعمل كمرآة سحرية تعكس للمستخدم ذاته المعرفية"، ما يعني أنها تُعيد إنتاج اهتماماته لا توسيعها. وهذا يعزز ما يُعرف بفقاعات التصفية  (Filter Bubbles)، وهي الظاهرة التي نبّه إليها الباحث إيلي بارايزر في كتابه " فقاعة التصفية: ما يخفيه الإنترنت عنك"

The Filter Bubble: What the Internet Is Hiding from You

حيث يختبر المستخدمون عالمًا معرفيًا موجهًا، لا يسمح بتعدد وجهات النظر أو الصدمات الفكرية الضرورية لتكوين رأي ناضج.

من جهة أخرى، يرى بعض الباحثين أن هذه الخوارزميات ليست بالضرورة معادية للتنوع أو الدقة، بل يمكن توجيهها بطريقة تدعم الصحافة المهنية. فمثلاً، يشير تقرير

«Reuters Institute»  لسنة 2023 إلى أن بعض المؤسسات الكبرى مثل

«The Washington Post» و»BBC»  بدأت باستخدام أنظمة تخصيص تراعي جودة الخبر وتنوع المصادر، دون الاقتصار على ميول القارئ فحسب. وقد أظهرت دراسات تجريبية أن المستخدمين الذين يتعرضون لمحتوى منظم خوارزميًا يبدون اهتمامًا أطول، ومعدلات تفاعل أعلى، مقارنة بالأنظمة التقليدية.

 

لكن هذه التقنيات لا تخلو من مخاطر أخلاقية، خاصة في السياقات غير الديمقراطية، حيث قد تُستخدم خوارزميات التخصيص كأدوات للرقابة الناعمة، تُغذي الانغلاق وتُهمّش الرأي النقدي. وفي هذا الصدد، تشير تقارير «Freedom House» إلى أن بعض الأنظمة الاستبدادية شرعت في تطوير نسخ محلية من محركات التخصيص، تُراعي معايير الرقابة والتوجيه الإيديولوجي بدل الانفتاح والتعدد.

في المغرب، بدأت بعض المنصات الإخبارية الناشئة بتجربة تقنيات تخصيص المحتوى اعتمادًا على بيانات المستخدمين، خاصة في ما يتعلق بالجهوية واللغة والثقافة. هذا التوجه، وإن كان يعكس تطورًا تقنيًا محمودًا، يطرح أسئلة حول الخصوصية وحماية البيانات، في ظل غياب أطر تنظيمية واضحة. فالمعركة الحقيقية ليست في حجم البيانات أو سرعة المعالجة، بل في كيفية استخدامها، ومن يملك حق توجيهها.

في نهاية المطاف، لا يمكن إنكار أن الذكاء الاصطناعي أحدث ثورة في الطريقة التي نستهلك بها الأخبار، لكن تبقى هذه الثورة محمولة على مفارقة جوهرية: فهي توسّع إمكانيات المعرفة، وفي الوقت ذاته، تضيق حدود الانكشاف على المختلف. وبين هذين الحدّين، تظل الصحافة في حاجة إلى إعادة تعريف ذاتها، ليس فقط كمصدر للمعلومة، بل كحارس للتعدد، ومُحفّز على التفكير، لا مجرد مرآة رقمية تعكس الذات في نسخ لا نهائية.

الرهان اليوم لا يكمن في مقاومة الذكاء الاصطناعي، بل في توجيهه أخلاقيًا، وإخضاعه لمعايير الشفافية، والتأكيد على أن التخصيص لا يعني الانغلاق، وأن الخوارزمية يمكن أن تكون جسرًا، لا جدارًا. وإذا ما أُحسن استثمارها، فقد تتحول خوارزميات الذكاء من أدوات تجزئة إلى محركات لفهم أعمق، وأكثر عدلاً، لما يحدث في العالم من حولنا.

0 التعليقات: