الفصـــل 25 من دستور المملكة : حرية الفكر والرأي والتعبير مكفولة بكل أشكالها. حرية الإبداع والنشر والعرض في المجالات الأدبية والفنية والبحت العلمي, والتقني مضمونة.


الأربعاء، أغسطس 25، 2021

حرية الصحافة والذكاء الاصطناعي (5) ترجمة عبده حقي

الشفافية هي شرط أساسي لأي رقابة عامة لتأثير الذكاء الاصطناعي على الخطاب العام والإعلامي. وبالتالي ، بسبب عدم التناسق الأساسي للمعلومات ، لا يزال هذا المجال مدروسًا بشكل سيئ. لكي تكون مثل هذه المراجعة ممكنة ، يجب أن يكون الذكاء

الاصطناعي قابلاً للتفسير . وبالتالي ، يجب على الدول النظر في جعل الكشف عن استخدام الذكاء الاصطناعي والوظائف الأساسية أمرًا إلزاميًا. يمكن تقسيم هذه المتطلبات إلى مستويات ، اعتمادًا على الهدف المنشود ، ودور أصحاب المصلحة ومرحلة تطوير الذكاء الاصطناعي أو استخدامه ، فضلاً عن مخاطر انتهاكات حقوق الإنسان. بالإضافة إلى ذلك ، ينبغي وضع قواعد واضحة تم إنشاؤها لضمان إمكانية مقارنة المعلومات الخاصة بنشر الذكاء الاصطناعي ، وحماية المعلومات الشخصية في جميع المراحل.

يجب أن تسير الشفافية جنبًا إلى جنب مع بناء قدرة المستخدمين على العمل. يجب أن يكونوا قادرين على ممارسة الاختيار والتحكم في جمع ورصد وتحليل البيانات المستخدمة لتخصيص المحتوى المخصص لهم ، وكذلك على تصميم الواجهات التي يستخدمها الوسطاء. لزيادة قوة المستخدم وزيادة مرونة المواطن ، ومحو الأمية الرقمية يحتاج إلى تعزيز.

إن الشفافية ضرورية حتى نعرف أدوات الذكاء الاصطناعي التي يتم نشرها وكيفية اتخاذ القرارات الآلية. من الضروري أيضًا حتى يكون من الممكن التشكيك في العمليات الإشكالية. يجب أن يتحمل أولئك الذين يستفيدون من الذكاء الاصطناعي المسؤولية عن أي عواقب سلبية لاستخدامه. لضمان هذه المساءلة ، فإن المعايير العالية للحوكمة أمر بالغ الأهمية. يجب أن تضمن القواعد أن أرباح الشركة تجعلها خاضعة للمساءلة وأن صانعي القرار يمكن أن يكونوا مسؤولين عن أفعالهم . ينبغي للدول أن تنظر في إنشاء بنية رقابة متدرجة للذكاء الاصطناعي واستكشاف نماذج التنظيم الذاتي والتنظيم المشترك ، كاملة بآليات تسوية المنازعات أو الهيئات الاستشارية لوسائل التواصل الاجتماعي أو المحاكم الإلكترونية للفصل السريع في قضايا التعدي .

لضمان استقلالية الرقابة ، يجب تمكين المؤسسات الوطنية لحقوق الإنسان من ممارسة الرقابة على الذكاء الاصطناعي أيضًا. تتمثل إحدى الطرق المهمة لتحقيق ذلك في إجراء تقييم دوري ودقيق لتأثير الذكاء الاصطناعي على حقوق الإنسان طوال دورة حياته ، وإتاحة هذه التقييمات لعامة الجمهور. بالإضافة إلى ذلك ، يجب أن تخضع أدوات الذكاء الاصطناعي لعمليات تدقيق مستقلة دورية لتحليل دقيق لتحديد ما إذا كان يتم إساءة استخدام الذكاء الاصطناعي لعرقلة حرية الصحافة.

يجب ضمان الولوج إلى الإجراءات التصحيحية والتعويض لكل من الصحفيين والمستخدمين الذين تم تقييد محتواهم بواسطة الذكاء الاصطناعي ، وكذلك لأولئك الذين ينقلون المحتوى أو ، مرة أخرى ، لأولئك الذين تضرروا من واجهات IAN التي تحركها IAN . هذه يجب أيضًا اتخاذ الإجراءات في الوقت المناسب وتخصيص الموارد الكافية.

من الممكن أيضًا التعلم من أفضل الممارسات في مجالات أخرى ، بما في ذلك وسائل الإعلام التقليدية ، لضمان الشفافية والمساءلة.

بالإضافة إلى ذلك ، يجب مواجهة الخطر المستمر المتمثل في السماح للعناصر التمييزية بتشويه تصميم ونشر IANote. فقط نهج شامل ومتعدد التخصصات يمكن أن يلبي هذا المطلب بشكل فعال. ينبغي أن تكون المناقشات في هذا الصدد مفتوحة لجميع المحاورين وجميع مجالات المجتمع ، بما في ذلك المستخدمين النهائيين المتأثرين ، والمجتمع المدني والأوساط الأكاديمية ووسائل الإعلام.

يتبع


0 التعليقات: