ليست المسألة هنا مجرّد استثمار في أدوات ذكية لتوفير الوقت أو تقليص التكاليف، بل نحن بصدد تحوّل جوهري يضع منظومة القيم الصحافية نفسها على محك غير مسبوق، ويطرح أسئلة أخلاقية تُماثل في تعقيدها السؤال الفلسفي: "من يحق له أن يروي الحقيقة؟ الإنسان أم الخوارزمية؟"
في أحد التقارير الصادرة عن "معهد رويترز" في جامعة أوكسفورد، تمّت الإشارة إلى أن عددًا من المؤسسات الإعلامية الكبرى بدأت بالاعتماد جزئيًا على الذكاء الاصطناعي لإنتاج مقالات إخبارية آلية تغطي مواضيع اقتصادية ورياضية وحتى سياسية. ويكاد الأمر يمرّ بسلاسة في أعين بعض القرّاء، لأن المحتوى لا يفتقر إلى الدقّة الإملائية أو الانسيابية الأسلوبية. غير أن الخطورة تكمن فيما لا يُكتب: تلك المسافة الفاصلة بين الواقع وتفسيره، بين المعلومة ونيّة معالجتها، بين الخبر وضمير من يكتبه.
إن أخلاقيات العمل
الصحافي لم تكن يومًا محصورة في ميثاق مكتوب؛ بل هي ممارسة يومية تتشكّل بين ضغط السرعة
وإغراء السبق، بين مسؤولية الحقيقة ونداء السوق. فحين تتحوّل مهمة تحرير الأخبار إلى
مجرّد إدخال بيانات في نموذج لغوي (مثل GPT أو Claude، تختفي الاعتبارات الأخلاقية التي ترافق الحكم
البشري، بما فيها التقدير الإنساني للسياقات الثقافية والاجتماعية والسياسية. لقد كتب
الباحث نيكولاس كار في كتابه «The
Shallows» أن الآلة
لا "تفكّر" كما يفعل الإنسان، بل "تُحاكي" التفكير، والفارق بين
الفعلين هو ما يحدّد الخطورة في أن تضع وسائل الإعلام مصيرها بين يدي محررين اصطناعيين.
الرهان لا يتعلّق بالدقّة
فحسب، بل بالنية والسياق. إن مجرّد صياغة عنوان إخباري حول الصحراء المغربية، على سبيل
المثال، من طرف خوارزمية لا تُحسن التمييز بين سرديات مغربية وأخرى جزائرية مدعومة
من دعاة الانفصال، قد يؤدي إلى تبني خطاب مضلل يُفقد المنصة الإعلامية حيادها ويضرب
مصداقيتها في الصميم. والسؤال الصارخ هنا: هل يستطيع الذكاء الاصطناعي أن يتحمّل تبعات
الانحياز السياسي أو الخطأ التحريري في سياقات حساسة؟
لقد تنبّهت بعض الجهات
الدولية إلى هذه الإشكاليات مبكرًا. فقد أصدرت "اليونسكو" سنة 2021 تقريرًا
بعنوان Ethical Challenges of AI in
Journalism،
تناول فيه الخبراء مجموعة من المخاطر الأخلاقية التي قد تصاحب استخدام الذكاء الاصطناعي
في الصحافة، بدءًا من تزييف الأخبار (deepfake news) مرورًا بالتلاعب بالخوارزميات لصالح أجندات سياسية أو اقتصادية، وصولاً
إلى انتهاك الخصوصية عبر جمع وتحليل بيانات القرّاء.
ومن زاوية أخرى، تبدو
العلاقة بين الذكاء الاصطناعي والأخبار كأنها رقصة متأرجحة بين الإغراء والريبة. ففي
الوقت الذي توفّر فيه الخوارزميات قدرة هائلة على تحليل كمّ هائل من البيانات في وقت
قياسي، فإنها تفتقر إلى الحسّ النقدي الذي يمتلكه الصحافي حين يقرّر ما ينبغي نشره
وما يجب حجبه. وهي لا تدرك، مثلًا، أن نشر صورة معيّنة لطفل في كارثة إنسانية قد يخلق
أذىً مضاعفًا لعائلته، أو أن إعادة استخدام مصطلح مغلوط قد يرسّخ خطاب كراهية.
كمواطن مغربي مهتم
بالصحافة ، لا يمكنني النظر إلى هذه المسألة بعيدًا عن السياق المحلي. في بلد يشهد
تحولات رقمية متسارعة، ويتأرجح إعلامه بين الرغبة في التحديث ومخاطر التبعية التكنولوجية،
تبدو الحاجة ماسّة إلى تأصيل نقاش وطني حول معايير استخدام الذكاء الاصطناعي في الصحافة.
ولا يكفي أن نسأل عمّا إذا كانت الأخبار المنتجة بالذكاء الاصطناعي دقيقة أو لا؛ بل
يجب أن نسأل: هل تعكس هذه الأخبار تعددية المجتمع المغربي؟ هل تضع خصوصيته الثقافية
والسياسية في الحسبان؟ وهل تلتزم بميثاق أخلاقي يراعي حرية التعبير دون السقوط في التلاعب
أو التشويه؟
إن الأخبار ليست منتجًا
محايدًا؛ إنها فعل تأويلي، وموقف ضمني من الواقع. لهذا لا يمكن للآلة، مهما بلغت من
التطور، أن تحلّ محلّ الصحافي الذي يصيغ الخبر من قلب الواقع، لا من أعماق قاعدة بيانات.
ولن يُعوّض الضمير المهني بمجموعة تعليمات برمجية حتى لو كُتبت بأيدي أذكى المبرمجين.
فالقضية ليست في "قدرة" الذكاء الاصطناعي على توليد النصوص، بل في
"جدارة" هذه النصوص بأن تُشكّل وعيًا عامًا أخلاقيًا، عادلًا، وواعيًا بالتعقيدات
التي يختزنها كل خبر.
لذلك أجدني اليوم،
أكثر من أي وقت مضى، أدافع عن ضرورة تطوير أخلاقيات رقمية مغربية في مجال الإعلام،
تكون شاملة ومركّبة، تستحضر البعد الثقافي والحقوقي والسياسي، ولا تكتفي بنسخ توصيات
جاهزة من وادي السيليكون. الذكاء الاصطناعي ليس قدرًا، بل أداة؛ وعلينا أن نقرّر كيف
نستخدمه دون أن نفقد إنسانيتنا، أو نُفرّط في وظيفة الصحافة كمرآة للضمير، لا كصدى
لخوارزمية.
0 التعليقات:
إرسال تعليق