يناقش هذا المقال تأثير استخدام الذكاء الاصطناعي على حرية التعبير وحرية الصحافة. على الرغم من أن الذكاء الاصطناعي يمكنه تحسين التواصل والوصول إلى المعلومات بعدة طرق ، بما في ذلك وسائل الإعلام التقليدية ، إلا أن هذه المقالة تركز أساسا على المخاوف الرئيسية التي أثارها نشر الذكاء الاصطناعي عندما يتعلق الأمر بعدم احترام حقوق الإنسان.
يمكن استخدام الذكاء الاصطناعي كأداة للرقابة على وسائل الإعلام والمراقبة غير المشروعة للمواطنين والصحفيين المستقلين. من ناحية أخرى ، في البيئة الافتراضية اليوم ، يلعب عدد قليل من وسطاء الإنترنت المهيمنين دور المشرفين على الحفاظ على المعلومات ونشرها وتحقيق الدخل منها ، بما في ذلك الأخبار. ينشر هؤلاء الوسطاء الذكاء الاصطناعي بشكل متزايد لإدارة الخطاب العام والخاص.
غالبًا ما تكون
أدوات الذكاء الاصطناعي ، التي تدعم الكثير من تقديم المحتوى اليوم ، جزءًا لا
يتجزأ من نموذج عمل إعلاني مستهدف. يعتمد استخدام الذكاء الاصطناعي لتقديم المحتوى
بناءً على تفضيلات المستخدم المفترضة على إنشاء ملفات التعريف بناءً على كمية
كبيرة من البيانات. لتعظيم إيراداتهم ، يمكن للوسطاء إعطاء الأولوية للمحتوى الذي
يزيد من مشاركة المستخدم على حساب المحتوى الذي يوفر الوصول إلى معلومات متنوعة
ذات اهتمام عام أو صحافة مستقلة عالية الجودة. يمكن أن يقلل هذا الاتجاه من قدرة
المستخدمين على الوصول إلى معلومات متنوعة ويمكن أن يؤثر على تفكيرهم ومعتقداتهم.
عندما يتعلق
الأمر بمراقبة الكلام ، غالبًا ما تستخدم الدول والوسطاء الذكاء الاصطناعي لاكتشاف
وإزالة المحتوى الذي يعتبر غير قانوني أو غير مرغوب فيه. إن الكمية الهائلة من
المحتوى المتداولة تفوق قدرة الإنسان على المراقبة. إذا كانت تصفية الذكاء
الاصطناعي للمحتوى
الذي ينشئه المستخدم قد تبدو مثيرة للاهتمام في هذا الصدد ، فإن أدوات الذكاء
الاصطناعي تكون عرضة للأخطاء. بالإضافة إلى نشر الذكاء الاصطناعي ، تطلب الدول من
الجهات الفاعلة في القطاع الخاص مراقبة المحتوى وإزالته ، بناءً على تعريفات غامضة
وضمن مواعيد نهائية ضيقة. قد يؤدي هذه الاستعانة بمصادر خارجية لحماية حقوق
الإنسان إلى جهات فاعلة في القطاع الخاص مدفوعة بالربح إلى حثهم على الإفراط في
إعاقة الخطاب الشرعي ، مما يثير مخاوف إضافية بشأن أسبقية الحكومة ، والحق
والتمييز.
إن إمكانية
استخدام الذكاء الاصطناعي لتسهيل المراقبة والرقابة ، سواء لأغراض اقتصادية أو
سياسية ، يهدد الحق في البحث عن المعلومات والحصول عليها ويهدد تنوع وسائل
الإعلام. يتم تضخيم هذا الخطر من خلال القوة والتأثير اللذين تمارسهما حفنة من
الوسطاء ، وحقيقة أن معظم أدوات الذكاء الاصطناعي تعمل بطريقة مبهمة وبدون الكثير
من التنظيم أو الإشراف.
توضح هذه
المقالة أيضًا كيف أن التحيزات الموجودة في مجموعات البيانات وبين مطوري هذه
الأنظمة تخاطر بإدامة عدم المساواة الحالية. وتصف كيف يؤثر الذكاء الاصطناعي على
وسائل الإعلام الرئيسية وكيف أدت جائحة كورونا إلى تفاقم المخاوف المذكورة أعلاه. في
الختام ، توصي المقالة بالتوجيهات التي يجب على الدول والقطاع الخاص اتخاذها لضمان
احترام حقوق الإنسان في تصميم ونشر الذكاء الاصطناعي ، ولضمان الشفافية والمساءلة
... في جميع المراحل.
حرية الصحافة
والذكاء الاصطناعي
توفر التقنيات
الجديدة إمكانيات غير مسبوقة لممارسة حرية التعبير وحرية الصحافة التمهيدية 1.
يلعب الذكاء الاصطناعي (AI) دورًا مهمًا في تغيير الطريقة التي نتواصل بها بالإضافة إلى استهلاك
محتوى الوسائط والتفاعل مع هذا المحتوى. يقدم الذكاء الاصطناعي حلولاً مقنعة
لتصفية وتصنيف المحتوى الذي ينشئه المستخدمون والمعلومات عبر الإنترنت ، والتي
تبدو بلا نهاية. حرية التعبير وحرية الصحافة.
في حالة عدم
وجود تعريف مقبول عالميًا ، يُستخدم المصطلح العام "AI" بشكل شائع للإشارة إلى العمليات
المؤتمتة والقائمة على البيانات. . نظرًا لأن الذكاء الاصطناعي يعتمد على البنى
والبيانات المقدمة من البشر ، فإن النتائج التي ينتجها لا بد أن تتشكل من خلال
القيم الثقافية وكذلك الخبرات والمعتقدات الذاتية ، بما في ذلك التحيزات الأساسية
، الحاشية 4.
تنشر بعض الدول
الذكاء الاصطناعي لمراقبة سكانها بشكل غير قانوني ومراقبة الاتصالات العامة بطريقة
تنتهك القانون الدولي لحقوق الإنسان. من خلال قدرات المراقبة غير المسبوقة ، يمكن
للذكاء الاصطناعي تسهيل الرقابة وقمع الصحافة المستقلة والمعارضة ، سواء عبر
الإنترنت أو خارجها. نتيجة لذلك ، تستخدم بعض الدول الذكاء الاصطناعي لإكراه
الصحافة وفي نهاية المطاف تشديد سلطتها الرقمية الحاشية السفلية 5.
بالإضافة إلى
ذلك ، يستخدم اللاعبون في القطاع الخاص ، ولا سيما محرك البحث ومزودو منصات
التواصل الاجتماعي ، الذكاء الاصطناعي لتصفية المحتوى لاكتشاف ما يعتبر غير مرغوب
فيه وإزالة أو تقليل ظهوره ("تعديل المحتوى") ، وكذلك لتصنيف ونشر
المحتوى المصمم حسب الطلب المعلومات ("تحرير المحتوى") الحاشية السفلية
6. في كلتا الحالتين ، يتم تنظيم الكلام لغرض تسهيل الاتصال عبر الإنترنت ، وتقديم
خدمات سهلة الاستخدام ، وزيادة الأرباح بشكل أساسي.
أصبح ترشيح
المحتوى وترتيبه باستخدام الذكاء الاصطناعي ممكنًا من خلال المراقبة واسعة النطاق
لسلوك المستخدم. لتقييم مدى ملاءمة المحتوى والتنبؤ به ، يحتاج الذكاء الاصطناعي
إلى قدر كبير من البيانات الدقيقة ، والتي تسهل أيضًا الإعلان ، وهو أساس نموذج
الأعمال للعديد من وسطاء الإنترنت. يشجع تسليع البيانات الشخصية لاستهداف
الإعلانات ، والذي يترجم إلى ربح ، على جمع البيانات ومعالجتها على نطاق واسع ،
وهي ظاهرة يشار إليها باسم "رأسمالية المراقبة". الحاشية السفلية 7.
الوسطاء ، الذين يقدمون خدمات "مجانية" ، يجنون أرباحهم من تطوير الملفات
الشخصية وتسويق المساحات العامة. تفتح هذه الممارسات الغازية بطبيعتها الباب أمام
مخاطر إساءة استخدام السلطة وسيطرة الدولة المتفشية. وحماية المصادر.
كثيرًا ما
يُقارن الذكاء الاصطناعي بالصندوق الأسود ، غالبًا ما يكون الذكاء الاصطناعي غير
شفاف ، ويظل استخدامه غير مرئي ، مما قد يعطي انطباعًا مضللًا بأنه ينتج نتائج
محايدة وتمثيلًا موضوعيًا لـ الحقيقة.
قد لا يكون المستخدم على دراية باستخدام نظام الذكاء الاصطناعي AI وكيف يحصل هذا النظام على نتائج البحث
أو يروج للمحتوى أو يزيله. وعلى غرار ذلك ، ليس من الواضح دائمًا متى وكيف يتم نشر
الذكاء الاصطناعي لإعاقة عمل وسائل الإعلام ، سواء من خلال المراقبة أو أشكال أخرى
من التدخل. إن الغموض والجهل المحيط بالذكاء الاصطناعي هما العيوب الرئيسية في أي
استخدام لهذه التكنولوجيا.
يمكن أن يكون
للذكاء الاصطناعي الغامض الذي يحكم نشر المعلومات لصالح المصالح التجارية عواقب
وخيمة على الخطاب العام ، خاصة وأن السوق يهيمن عليه حفنة صغيرة من الوسطاء. فقد أصبحت
احتكارات القلة هذه الحكام الخاصين في الكلام ، الذين يملون كيفية استخدام الاتصال
عبر الإنترنت وكيفية الوصول إلى المعلومات على مستوى العالم. أولئك الذين يرغبون
في أن يكونوا جزءًا من الفضاء الإلكتروني ليس لديهم خيار سوى قبول القواعد
والرقابة التي يفرضها هؤلاء الوسطاء المهيمنون. بالإضافة إلى ذلك ، يمكن لأنظمة
الذكاء الاصطناعي الخاصة واتساع البصمات الرقمية أن تسهل أيضًا مراقبة الدولة
والرقابة السياسية على الصحافة.
لقد قوضت نماذج
الأعمال القائمة على الإعلانات ، والتي تقع في قلب الهيكل الحالي للإنترنت ، بشكل
كبير جدوى وسائل الإعلام التقليدية من خلال تغيير هياكل علاقات القوة على حساب
جودة الصحافة. تبرز التقنيات هذا الخلل في التوازن ، لا سيما في البلدان التي
لديها سكان محدودي الوصول إلى الإنترنت أو ذات وسائط خدمة عامة ضعيفة.
سواء من خلال
الرقابة المستهدفة ، أو المراقبة الواسعة النطاق للصحفيين الاستقصائيين ، أو
استخدام الروبوتات التي يقودها الذكاء الاصطناعي لمهاجمة وإسكات بعض الصحفيين ،
فإن أي استخدام للذكاء الاصطناعي بقصد إعاقة الصحافة المستقلة يشكل تهديدًا خطيرًا
لحرية الصحافة. بسبب سوء النية ، فإن الاستخدام الواسع النطاق للذكاء الاصطناعي
لمراقبة محتوى معين وتقييده أو لنشر المعلومات ينطوي على مخاطر كبيرة. إذا كان العديد
من الأسئلة الأساسية حول إزالة المحتوى أو تنظيمه لا تتضمن الذكاء الاصطناعي
حصريًا ، فإن استخدامه لتشكيل المعلومات وتعديلها على نطاق واسع يضخم العديد من
التحديات الحالية يثير تحديات جديدة. في الأقسام التالية ، سنناقش نشر الذكاء
الاصطناعي لأغراض تنسيق المحتوى وتنظيمه ، وتأثيره المحتمل على حرية التعبير وحرية
الصحافة.
تعديل المحتوى
إن هيمنة محتوى
معين ، مثل الرسائل المضللة أو البغيضة أو المتطرفة العنيفة ، تؤدي إلى تدهور جودة
الخطاب العام . لقد تم استخدام الذكاء الاصطناعي لتقييم المحتوى من أجل تمييز أو
شيطنة أو إزالة بعض منه، أو لتقليل ظهوره ، أو لاستبعاد حسابات محددة . تم نشر
الذكاء الاصطناعي بشكل شائع كأداة للإشراف المسبق ، في شكل مرشحات تحميل ، ولتحليل
المحتوى بمجرد نشره أو تم الإبلاغ عنه بواسطة التحقق البشري من قبل المستخدمين.
لا تزال قدرة
الذكاء الاصطناعي على تحليل المحتوى محدودة. يعتمد تقييم الكلام إلى حد كبير على
السياق ويتطلب فهم الفروق الدقيقة الثقافية واللغوية والسياسية. للرقابة الذاتية
وإسكات المهمشين .
يعد استخدام
الذكاء الاصطناعي من قبل الوسطاء للإشراف الاستباقي على المحتوى شكلاً من أشكال
التنظيم الذاتي حيث تستند القرارات التي يحركها الذكاء الاصطناعي عمومًا إلى شروط
الاستخدام أو قواعد السلوك الخاصة بمجتمع ما ". إن الدول تطلب بشكل متزايد وسطاء
للتخلص من رسائل محددة وتطلب منهم إزالة فئات معينة من المحتوى ، غالبًا ما تستند
إلى تعريفات غامضة ، والتي يمكن أن تؤدي إلى حجب الأخبار. يتم فرض مواعيد نهائية
ضيقة عليهم. لا تثير هذه الظاهرة مخاوف كبيرة بشأن سيادة القانون والإجراءات القانونية
الواجبة فحسب ، بل تؤدي أيضًا إلى الاعتماد على الحاشية السفلية لبعض الشركات
القوية بالفعل. بشكل عام ، يبدو أن الذكاء الاصطناعي يعمل على تسريع الاتجاه نحو
مراقبة الاتصالات على نطاق واسع ، مما يقوض بشدة حرية الصحافة.
خلال جائحة
كوفيد 19 ، أدى احتواء الوسطاء من البشر والحاجة المتزايدة لمواجهة المعلومات
المضللة إلى تحول الدول والوسطاء بشكل متزايد إلى الذكاء الاصطناعي. لقد أوضح
الوباء أهمية القدرة على الاعتماد على معلومات موثوقة ومتنوعة ، لكنه سلط الضوء
أيضًا على الحاجة إلى تقليل الآثار الجانبية للذكاء الاصطناعي نفسه ، حيث كان
تصحيح الأخطاء المتراكمة بطيئًا.
تنظيم المحتوى
لقد أدت وفرة
المحتوى عبر الإنترنت إلى تشتيت انتباه المستخدمين بشكل متزايد. يستخدم وسطاء
الإنترنت الذكاء الاصطناعي لنشر المعلومات استنادًا إلى التفضيلات الشخصية
المفترضة لكل مستخدم. . وبالتالي، فإن نية الوسطاء عند إجراء تنبؤاتهم هي تحويل
البيانات إلى نقود بغرض استهداف الإعلان . ولذلك ، فإن تنظيم موجز الأخبار ونتائج
البحث ، عندما تكون مدعومة بالذكاء الاصطناعي ، تهدف إلى تحفيز المستخدمين على
الانخراط بشكل أكبر في هذه الأقسام المعنية وتخصيص المزيد من الوقت لهم. قد يجذب
المحتوى المثير للجدل أو الإثارة مزيدًا من الاهتمام ، كما هو الحال مع الكراهية
أو العنصرية أو الخوف . وهكذا ، فإن أنظمة التصنيف بالذكاء الاصطناعي التي تضع
وزنًا أكبر على القدرة على توليد النقرات أكثر من الاهتمام الحقيقي بالمعلومات يمكن
أن تؤدي إلى الاستقطاب والتطرف. ونشر رسائل خادعة أو بغيضة.
من ناحية أخرى ،
يجب أن تتنافس الوسائط التقليدية أيضًا على جذب انتباه المستخدم لأنها تعتمد بشكل
متزايد على الوصول إلى المحتوى الخاص بها ومشاركته عبر الإنترنت. ونتيجة لذلك ، قد
يضطرون إلى التركيز على "المعلومات والترفيه" أكثر من التركيز على
المصلحة العامة ، مما يزيد الضغط على الصحافة الجيدة.
من خلال تخصيص
المحتوى ، بما في ذلك الأخبار ، يمكن للذكاء الاصطناعي طمأنة المستخدمين بآرائهم ،
وإنشاء غرف صدى وفقاعات تصفية ،
وتقليل احتمالية تعرضهم لمحتوى وسائط متنوعة. الاختلالات وتضخيم مشاعر الآخرين ،
مع تهديد التنوع الإعلامي بشكل خطير.
توفر البنية
الحالية للإنترنت للوسطاء القليل من الحوافز الاقتصادية لحثهم على تقديم محتوى
متنوع أو واقعي. إن الذكاء الاصطناعي المصمم لخدمة المصالح التجارية أو السياسية يعزز
دائمًا أنواعًا معينة من المحتوى التي يمكن أن تؤثر على السلوك وتعيد توجيهه
لأغراض تعظيم الأرباح أو الإقناع ، أو بهدف قمع الصحافة المستقلة عن قصد. أنظمة
الذكاء الاصطناعي للوسطاء يمكن إساءة استخدامها من قبل الأنظمة الاستبدادية أو
غيرها ، على سبيل المثال عن طريق استخدام الروبوتات التي تنشر رسائل محددة أو تحجب
رؤية المحتوى الصحفي. يمكن استخدام أدوات الذكاء الاصطناعي لمهاجمة الصحفيين بهدف
إسكاتهم ، على سبيل المثال من خلال حملات المضايقة التي يتم تنظيمها لمحاكاة الحراك
الشعبي. تحظى هذه الطريقة بشعبية خاصة لاستهداف الصحفيات ، ويمكن لأنظمة التوصيل
التي تعتمد على الذكاء الاصطناعي أن تعزز مثل هذه الهجمات بجعلها فيروسية.
إذا كان مدى
تأثير الذكاء الاصطناعي على الخطاب العام لا يزال غير مؤكد ، فلا شك في أن الذكاء
الاصطناعي يتم نشره غالبًا في محاولة للتأثير على تصورات الناس أو سلوكهم. لقد أصبح
وسطاء الإنترنت حراس بوابات المعلومات الذين يستخدمون الذكاء الاصطناعي لإدارة
محتوى الوسائط وتدفقات المعلومات ، الأمر الذي يشكل حتمًا آراء المستخدمين
وسلوكهم. شكل من أشكال الرقابة أو ، على العكس من ذلك ، ناقل دعاية أو هجمات.في
غياب الضمانات الديمقراطية ، فإن مراقبة الخطاب ونشر المحتوى من قبل منظمة العفو
الدولية يهدد حرية الصحافة والوصول إلى المعلومات وحرية التعبير ، مع إثارة
المخاوف بشأن هذا الموضوع. من القانون والتمييز المنهجي.
التوصيات:
تاريخيا ،
استخدمت البشرية التكنولوجيا لحل المشاكل المجتمعية. وبالتالي، فإن القضايا التي
كانت مثيرة للجدل لفترة طويلة لا يمكن حلها ببساطة عن طريق الاستعانة بمصادر
خارجية لعمليات صنع القرار. علاوة
على هذا الجانب ، يمكن أن تعمل التقنيات كأدوات مراقبة للرقابة وقمع وسائل الإعلام
على نطاق غير مسبوق. في حين أن العديد من هذه المخاوف ليست خاصة بالذكاء الاصطناعي
، فإن استخدام الذكاء الاصطناعي يفاقم التهديدات بالفعل لحرية التعبير وحرية
الصحافة. لمواجهة هذه التهديدات بشكل فعال ، من الأهمية بمكان مراعاة السياق
الاجتماعي والتقني الذي يتم فيه نشر الذكاء الاصطناعي ومستخدميه والأهداف التي
يسعون وراءها. على الرغم من عدم وجود حل واحد يناسب الجميع ، لا يمكن تقييم تأثير
الذكاء الاصطناعي ومعالجته بحكمة دون أن يكون شفافًا وخاضعًا للمساءلة.
نظرًا لأن لديها
التزامًا رسميًا بحماية حرية التعبير وحرية الصحافة ، يجب على الدول تعزيز البيئة المواتية
للتنوع. حرية التعبير أو حرية الصحافة ضرورية ومتناسبة. إن الإفراط في دمج البيانات في الشراكات بين
القطاعين العام والخاص يتعارض مع هذه المعايير. في كثير من الأحيان ، على العكس من
ذلك ، فإنه يسهل الاستبداد الرقمي الذي يمارس المراقبة الجماعية ، ويستهدف
الصحفيين وكذلك الأفراد ، ويفرض رقابة غير مسبوقة الرأي عام ، يضايق الصحفيين أو
يمارس تدابير قمعية أخرى ، ولكن بالأحرى لتحديد الحدود المقبولة لاستخدام هذه
التكنولوجيا.
يجب أن تكون
التدابير والسياسات التنظيمية للذكاء الاصطناعي قائمة على الأدلة ويجب ألا تؤثر سلبًا
على حرية الصحافة. يجب على الدول الامتناع عن تفويض حماية حقوق الإنسان بشكل أعمى
إلى الحاشية السفلية NAI. بالإضافة إلى ذلك ، يجب تأطير جميع الجهود في هذا الصدد بقواعد صارمة
لحماية البيانات. لا ينبغي أن يكون من الضروري الموافقة على ممارسات المراقبة التدخلية
من أجل المشاركة في الخطاب العام عبر الإنترنت.
تقع على عاتق
الشركات أيضًا مسؤولية احترام حقوق الإنسان. في حين أن العديد من الشركات ملتزمة
بأن تكون أخلاقية ، إلا أنها لا تفعل ذلك بالضرورة مع احترام حقوق الإنسان. وبالتالي،
نظرًا لأن هذه القواعد والمبادئ لا يمكن عمومًا أن تستند إلى ضمانات شرعية
ديمقراطيًا أو على قواعد لتطبيق مثل هذه الضمانات ، فإنها لا تستطيع بمفردها ضمان
الحماية الفعالة.
الشفافية هي شرط
أساسي لأي رقابة عامة لتأثير الذكاء الاصطناعي على الخطاب العام والإعلامي. وبالتالي
، بسبب عدم التناسق الأساسي للمعلومات ، لا يزال هذا المجال مدروسًا بشكل سيئ. لكي
تكون مثل هذه المراجعة ممكنة ، يجب أن يكون الذكاء الاصطناعي قابلاً للتفسير .
وبالتالي ، يجب على الدول النظر في جعل الكشف عن استخدام الذكاء الاصطناعي
والوظائف الأساسية أمرًا إلزاميًا. يمكن تقسيم هذه المتطلبات إلى مستويات ،
اعتمادًا على الهدف المنشود ، ودور أصحاب المصلحة ومرحلة تطوير الذكاء الاصطناعي
أو استخدامه ، فضلاً عن مخاطر انتهاكات حقوق الإنسان. بالإضافة إلى ذلك ، ينبغي
وضع قواعد واضحة تم إنشاؤها لضمان إمكانية مقارنة المعلومات الخاصة بنشر الذكاء الاصطناعي
، وحماية المعلومات الشخصية في جميع المراحل.
يجب أن تسير
الشفافية جنبًا إلى جنب مع بناء قدرة المستخدمين على العمل. يجب أن يكونوا قادرين
على ممارسة الاختيار والتحكم في جمع ورصد وتحليل البيانات المستخدمة لتخصيص
المحتوى المخصص لهم ، وكذلك على تصميم الواجهات التي يستخدمها الوسطاء. لزيادة قوة
المستخدم وزيادة مرونة المواطن ، ومحو الأمية الرقمية يحتاج إلى تعزيز.
إن الشفافية
ضرورية حتى نعرف أدوات الذكاء الاصطناعي التي يتم نشرها وكيفية اتخاذ القرارات
الآلية. من الضروري أيضًا حتى يكون من الممكن التشكيك في العمليات الإشكالية. يجب
أن يتحمل أولئك الذين يستفيدون من الذكاء الاصطناعي المسؤولية عن أي عواقب سلبية
لاستخدامه. لضمان هذه المساءلة ، فإن المعايير العالية للحوكمة أمر بالغ الأهمية.
يجب أن تضمن القواعد أن أرباح الشركة تجعلها خاضعة للمساءلة وأن صانعي القرار يمكن
أن يكونوا مسؤولين عن أفعالهم . ينبغي للدول أن تنظر في إنشاء بنية رقابة متدرجة
للذكاء الاصطناعي واستكشاف نماذج التنظيم الذاتي والتنظيم المشترك ، كاملة بآليات
تسوية المنازعات أو الهيئات الاستشارية لوسائل التواصل الاجتماعي أو المحاكم
الإلكترونية للفصل السريع في قضايا التعدي .
لضمان استقلالية
الرقابة ، يجب تمكين المؤسسات الوطنية لحقوق الإنسان من ممارسة الرقابة على الذكاء
الاصطناعي أيضًا. تتمثل إحدى الطرق المهمة لتحقيق ذلك في إجراء تقييم دوري ودقيق
لتأثير الذكاء الاصطناعي على حقوق الإنسان طوال دورة حياته ، وإتاحة هذه التقييمات
لعامة الجمهور. بالإضافة إلى ذلك ، يجب أن تخضع أدوات الذكاء الاصطناعي لعمليات
تدقيق مستقلة دورية لتحليل دقيق لتحديد ما إذا كان يتم إساءة استخدام الذكاء
الاصطناعي لعرقلة حرية الصحافة.
يجب ضمان الولوج
إلى الإجراءات التصحيحية والتعويض لكل من الصحفيين والمستخدمين الذين تم تقييد
محتواهم بواسطة الذكاء الاصطناعي ، وكذلك لأولئك الذين ينقلون المحتوى أو ، مرة
أخرى ، لأولئك الذين تضرروا من واجهات IAN التي
تحركها
IAN .
هذه يجب أيضًا اتخاذ الإجراءات في الوقت المناسب وتخصيص الموارد الكافية.
من الممكن أيضًا
التعلم من أفضل الممارسات في مجالات أخرى ، بما في ذلك وسائل الإعلام التقليدية ،
لضمان الشفافية والمساءلة.
بالإضافة إلى
ذلك ، يجب مواجهة الخطر المستمر المتمثل في السماح للعناصر التمييزية بتشويه تصميم
ونشر
IANote.
فقط نهج شامل ومتعدد التخصصات يمكن أن يلبي هذا المطلب بشكل فعال. ينبغي أن تكون
المناقشات في هذا الصدد مفتوحة لجميع المحاورين وجميع مجالات المجتمع ، بما في ذلك
المستخدمين النهائيين المتأثرين ، والمجتمع المدني والأوساط الأكاديمية ووسائل
الإعلام.
ترتبط معظم
المشكلات ارتباطًا وثيقًا بحقيقة أن حفنة من الشركات المهيمنة تتمتع بقوة وسيطرة
كبيرة على نظام المعلومات عبر الإنترنت. دائمًا ما ينطوي تركيز السلطة ، سواء في
أيدي الدولة أو شركة ، على مخاطر كبيرة تتمثل في إعاقة الحريات. الخدمات الحاشية
السفلية 79. دعم تطوير أدوات الذكاء الاصطناعي التي لا تستند إلى بيانات ونظام
تشغيل إعلاني مستهدف من شأنه تعزيز تنوع السوق وإضفاء الطابع الديمقراطي على
الذكاء الاصطناعي وتعزيز المساحات العامة على الإنترنت التي تحركها القيم الحاشية
80.
أخيرًا ، نظرًا
للطبيعة العابرة للحدود والمترابطة للغاية للتحديات التي يفرضها الذكاء الاصطناعي
، فمن الضروري تضافر الجهود والسعي إلى حلول عالمية. هناك العديد من المبادرات
الهامة في هذا الصدد ، على سبيل المثال تلك الخاصة بمنظمة الأمن والتعاون في
أوروبا
(OSCE) ،
أو اليونسكو ، أو مجلس أوروبا ، أو الحاشية 81 للاتحاد الأوروبي.
في حين أن
الذكاء الاصطناعي ليس الدواء الشافي لمشاكل المجتمع ، فلا ينبغي أن يكون كبش فداء
لجميع التحديات التي تواجه حرية التعبير أو حرية الصحافة. لا ينبغي للذكاء
الاصطناعي أن يسهل الاستبداد الرقمي أو قمع وسائل الإعلام عالية التقنية. لكي تسمح
منظمة العفو الدولية بالوصول إلى المعلومات المتنوعة وتعزز حرية التعبير وحرية
الصحافة بدلاً من المساومة عليها ، من الضروري أن يضمن جميع أصحاب المصلحة إنشاء
إطار عمل راسخ بشأن حقوق الإنسان لضمان الشفافية والمساءلة للذكاء الاصطناعي.
نظرًا لأن الذكاء الاصطناعي يؤثر بشكل متزايد على جميع جوانب اتصالاتنا واستهلاك
الوسائط ، فقد حان الوقت لإدراج تدابير وقائية لتطويره واستخدامه ، حتى تسود حرية
الصحافة.
4. Liberté de
la presse et intelligence artificielle
0 التعليقات:
إرسال تعليق