وسط دعوات لاشتراط ضوابط قانونية تحكم استخدامه وتمنع خروجه عن السيطرة
لا يمكن لأي مراقب اليوم أن ينكر حقيقة واضحة: أن الذكاء الاصطناعي أصبح فاعلًا محوريًا في المنظومة الإعلامية، يزاحم المحررين والمنتجين ويتحكم في مسارات الخبر وصياغته وانتشاره. لقد انتقلنا من مرحلة تجريبية كانت فيها أدوات الذكاء
الاصطناعي تقدم خدمات بسيطة في التحقق من الأخبار أو الترجمة أو تنظيم المحتوى، إلى مرحلة جديدة تُصاغ فيها العناوين، بل وتُكتب فيها المقالات والتقارير الكاملة، عبر خوارزميات قادرة على تحليل البيانات و”التنبؤ“ بما يريده القارئ.من خلال تجربتي في
متابعة مسار التحول الإعلامي، أجد أن الإعلام التقليدي لم يكن مستعدًا لهذا التدفق
الهائل من الأدوات الذكية، فبعض المؤسسات تعاملت معها كحلول تقنية تسهّل العمل، دون
أن تطرح أسئلة جوهرية حول حدودها الأخلاقية أو تأثيرها على روح العمل الصحفي. لكن السرعة
التي باتت تنتشر بها المحتويات المُنتَجة آليًا، والقدرة على صياغة “خطاب مخصص” لكل
فئة من الجمهور، تثير اليوم قلقًا حقيقيًا بشأن إمكانية توجيه الرأي العام بشكل خفي.
ما يُضاعف من خطورة
المسألة هو أن هذه التقنيات باتت في متناول الجميع، وليست حكرًا على المؤسسات الإعلامية
الكبرى. يمكن لأي جهة، حتى وإن كانت مجهولة المصدر أو ذات أجندة مشبوهة، أن تستخدم
نموذجًا لغويًا ضخمًا لصناعة محتوى دعائي مقنع، يندمج داخل التدفق الإعلامي دون أن
يثير الشك. وفي كل مرة نكتشف فيها خبرًا مزيفًا تمت فبركته بواسطة الذكاء الاصطناعي،
نفهم أننا أصبحنا أمام مرحلة جديدة لا يكفي فيها الحديث عن الأخلاقيات المهنية أو
"حس المسؤولية"، بل نحن بحاجة إلى إطار قانوني واضح يفرض نوعًا من الحوكمة
على هذه الأدوات.
لقد بدأت بعض الهيئات
والبرلمانات – في أوروبا والولايات المتحدة – مناقشة مشاريع قوانين تضع ضوابط لاستخدام
الذكاء الاصطناعي في المحتوى الإعلامي، من بينها إلزام المؤسسات بالإفصاح عن الأجزاء
التي تمت كتابتها أو تحسينها عبر خوارزميات، وتمكين لجان مستقلة من مراقبة استخدام
هذه النماذج في معالجة الأخبار ذات الأبعاد السياسية. مثل هذه المبادرات تبدو اليوم
ضرورية، ليس فقط لحماية الجمهور من التضليل، ولكن أيضًا لضمان أن يبقى العمل الصحفي
فعلًا بشريًا نابعًا من ضمير حي، لا من محرك إحصائي يبحث عن أكثر الجُمل رواجًا.
في المقابل، لا ينبغي
أن تُفهم هذه المطالب التشريعية باعتبارها دعوة إلى تجميد التطور أو تخويف الصحفيين
من استخدام الأدوات الذكية. بالعكس، أنا مقتنع تمامًا بأن الذكاء الاصطناعي يمكن أن
يُعزز جودة العمل الإعلامي، إذا تم ضبطه داخل إطار مسؤول يُحدد وظيفته بدقة: دعم الصحفي،
لا استبداله. لقد أصبح من الممكن، مثلًا، تحليل ملايين الوثائق التسريبيّة في وقت قياسي،
أو الكشف عن الترابطات المعقدة بين البيانات المالية والسياسية، وهو أمر لم يكن يمكن
لأي غرفة تحرير – مهما بلغ عدد صحفييها – أن تقوم به وحدها.
لهذا السبب أدعو إلى
مقاربة مزدوجة: تشريعية/أخلاقية. التشريعية لضبط المجال ووضع حدود واضحة لأي استخدام
مضلل أو خادع. والأخلاقية لترسيخ وعي مهني جديد لدى العاملين في المجال الإعلامي، يقوم
على سؤال بسيط لكنه مصيري: هل أستخدم الذكاء الاصطناعي من أجل خدمة الحقيقة، أم لتوجيه
الجمهور نحو قناعة مُعدة سلفًا؟
إنّ مستقبل الإعلام
في السنوات المقبلة سيتوقف على الإجابة عن هذا السؤال. وإذا لم يتم وضع هذه الضوابط
الآن، فقد نجد أنفسنا أمام مشهد تقوده خوارزميات بلا وجه ولا ضمير، تتوارى خلف واجهات
إعلامية تبدو – ظاهريًا – موضوعية ومتوازنة.
لهذا، فإنّ اختيار
الطريق السليم يبدأ بالاعتراف بأن الذكاء الاصطناعي ليس مجرد أداة تقنية، بل قوة خطابية
يجب أن تُراقب ويُحاسَب أصحابها، تمامًا كما يُحاسَب الكاتب أو المحرر.
0 التعليقات:
إرسال تعليق