في النظام البيئي المترامي الأطراف للإنترنت، حيث تطالب مليارات الأصوات بالاهتمام يوميًا، برز تعديل المحتوى كمهمة سيزيفية. تكافح المنصات مع سيل لا هوادة فيه من المنشورات والتعليقات والصور - بعضها حميد وبعضها الآخر مخلوط بالسم. يدخل الذكاء الاصطناعي: الحارس الخوارزمي المكلف بغربلة هذه الفوضى، والإشارة إلى خطاب الكراهية، والحد من المعلومات المضللة، وربط الإبرة بين الرقابة وحرية التعبير. ومع ذلك، مع تولي أنظمة الذكاء الاصطناعي بشكل متزايد دور حراس البوابة الرقمية، فإنها تجسد مفارقة - حيث يتم الإشادة بها في نفس الوقت كمنقذين لللياقة على الإنترنت وانتقادها باعتبارها أدوات صريحة تهدد الخطاب الديمقراطي. تدرس هذه المقالة الوعود والمخاطر المترتبة على نشر الذكاء الاصطناعي على نطاق واسع، وتستكشف كيف تبحر هذه الأنظمة في المياه العكرة للتواصل البشري مع موازنة الضرورات الأخلاقية المتنافسة.
صعود الآلات: الكفاءة
والمستنقعات الأخلاقية
إن تعديل المحتوى على
نطاق واسع ليس خيارًا بل ضرورة. تعالج شركة فيسبوك وحدها أكثر من 100 مليار رسالة يوميًا،
وهو حجم لا يمكن لأي فريق بشري إدارته بشكل معقول. تكمن جاذبية الذكاء الاصطناعي في
سرعته وقابليته للتوسع - يمكن لنماذج التعلم الآلي، المدربة على مجموعات بيانات ضخمة،
مسح النصوص والصور ومقاطع الفيديو في جزء من الألف من الثانية، وتحديد الأنماط غير
المرئية للعين البشرية. تستخدم منصات مثل YouTube وTwitter هذه الأدوات للكشف عن خطاب الكراهية والعنف الرسومي وحملات التضليل، غالبًا
بدقة مذهلة. على سبيل المثال، خلال انتخابات الولايات المتحدة لعام 2020، حددت أنظمة
الذكاء الاصطناعي في تويتر أكثر من 300000 تغريدة على أنها "مضللة" في غضون
شهر واحد، وهو إنجاز لا يمكن تصوره بدون الأتمتة.
ومع ذلك، فإن الكفاءة
تأتي بتكلفة. إن اعتماد الذكاء الاصطناعي على التعرف على الأنماط يقلل من تصنيف اللغة
إلى تصنيفات ثنائية - ضارة أو حميدة - متجاهلاً الفروق الدقيقة التي تحدد التواصل البشري.
غالبًا ما تفلت السخرية أو التهكم أو التعبيرات الاصطلاحية الثقافية المحددة من الكشف
الخوارزمي. في *خوارزميات القمع*، تنتقد صفية أوموجا نوبل كيف تعمل الأنظمة الآلية
على إدامة التحيز، مستشهدة بحالات حيث تم وضع علامة غير ضارة على المنشورات غير الضارة
للمستخدمين السود بشكل غير متناسب على أنها "سامة" مقارنة بمحتوى مماثل من
المستخدمين البيض. تخاطر الآلات، المدربة على البيانات التاريخية، بتحويل التحيزات
القائمة إلى رموز.
ويزداد التحدي شدة
مع خطاب الكراهية، وهي فئة زلقة مثل الزئبق. على عكس التهديدات الصريحة، غالبًا ما
يزدهر خطاب الكراهية ضمناً، معتمدًا على صافرات الكلاب واللغة المشفرة. عندما بث مطلق
النار في كرايستشيرش عام 2019 مذبحته مباشرة على فيسبوك، فشل الذكاء الاصطناعي للمنصة
في البداية في التعرف على اللقطات على أنها عنيفة - وهو تذكير صارخ بأن الآلات تفتقر
إلى الوعي السياقي لتفسير الفظائع في العالم الحقيقي. وكما تشير عالمة الاجتماع زينب
توفيكجي في كتابها "تويتر والغاز المسيل للدموع"، فإن سرعة الإنترنت تفوق
الفهم البشري، ناهيك عن الاستشراف الخوارزمي.
التضليل: الهيدرا في
العصر الرقمي
إذا كان خطاب الكراهية
سمًا، فإن التضليل هو ظله - خصم متغير الشكل يتطور بشكل أسرع مما تستطيع الدفاعات التكيف
معه. وقد أبرز جائحة كوفيد-19 هذه الحقيقة: وصفت منظمة الصحة العالمية وباء المعلومات
بأنه "خطير مثل الفيروس نفسه"، حيث تسارع أنظمة الذكاء الاصطناعي إلى تفنيد
الادعاءات التي تربط شبكات الجيل الخامس بالمرض. ومع ذلك، كما تزعم جوان دونوفان في
كتابها "حروب الميم"، فإن التضليل غالبًا ما يزدهر في الفجوات بين قدرات
الذكاء الاصطناعي والمكر البشري. الواقع أن التزييف العميق، والميمات المحملة بنظريات
المؤامرة، والنصوص التي تولدها الذكاء الاصطناعي (مثل
GPT-3 من OpenAI) تطمس الخط الفاصل بين الحقيقة والتلفيق، وتترك
المنصات عالقة في لعبة دائمة من الضرب بالعصا.
والمخاطر وجودية. فعندما
يخطئ تعديل الذكاء الاصطناعي في جانب الحذر ــ إزالة المحتوى بشكل مفرط لتجنب المسؤولية
ــ فإنه يخاطر بخنق المعارضة المشروعة. وخلال احتجاجات حركة حياة السود مهمة في عام
2020، قامت خوارزميات إنستغرام عن طريق الخطأ بمراقبة المنشورات التي تحتوي على هاشتاجات
مثل
#BLM،
وهو ما يعكس ما تسميه الباحثة القانونية كيت كلونيك "الضرر الجانبي الناجم عن
الحجم". وعلى العكس من ذلك، يسمح نقص الإزالة للسرديات الضارة بالانتشار. وتقف
أعمال الشغب في الكابيتول في عام 2021، والتي غذتها أكاذيب تزوير الانتخابات التي تم
التسامح معها على المنصات لشهور، بمثابة شهادة قاتمة على هذا الخلل.
وقد بدأت الهيئات التنظيمية
في التدخل، حيث يفرض قانون الخدمات الرقمية في الاتحاد الأوروبي الشفافية في القرارات
الخوارزمية. ولكن التشريع يتخلف عن الابتكار. وكما يحذر الفيلسوف أفيف أوفاديا، فإن
الذكاء الاصطناعي في غياب الحواجز الأخلاقية يخاطر بالتحول إلى "طاغية للأغلبية،
يعمل على تضخيم الأصوات الأعلى بينما يسكت المهمشين".
حرية التعبير في العصر
الخوارزمي: السير على حبل مشدود
يعكس التوتر بين الاعتدال
وحرية التعبير نقاشًا فلسفيًا قديمًا: أين تنتهي حرية شخص وتبدأ سلامة شخص آخر؟ إن
مبادئ التعديل الأول، المصممة لعصر ما قبل الرقمي، تضغط تحت وطأة الحكم الخوارزمي.
عندما يزيل الذكاء الاصطناعي المحتوى، فإنه يعمل كقاضي وهيئة محلفين، غالبًا دون استئناف.
هذا التعتيم يزعج الواقع أن هذا النهج لا ينسجم مع النزعة الليبرالية
المدنية؛ وكما تقول جيليان يورك من مؤسسة الحدود الإلكترونية، "الشفافية هي الأساس
للمساءلة، ومع ذلك تعامل المنصات خوارزمياتها باعتبارها أسرارا تجارية".
وتتفاقم هذه المشكلة
بسبب الطبيعة العالمية للخطاب. فقد تكون النكتة في مومباي بمثابة إهانة في ملبورن،
ومع ذلك فإن أنظمة الذكاء الاصطناعي تطبق في كثير من الأحيان معايير موحدة عبر ثقافات
متنوعة. وعندما حظرت فيسبوك صورة "فتاة النابالم" الشهيرة في عام 2016 بسبب
التعري ــ متجاهلة أهميتها التاريخية ــ فقد كشفت عن عبثية الاعتدال الذي يناسب الجميع.
وتشبه عالمة اللغويات إميلي بيندر قدرة الذكاء الاصطناعي على الفهم بـ"السائح
الذي يحمل كتاب عبارات: فهو يتعرف على الكلمات ولكنه يفتقد المعنى".
ويتطلب تحقيق التوازن
بين هذه المطالب المتنافسة إعادة تصور دور الذكاء الاصطناعي. وتقدم النماذج الهجينة،
حيث تشير الخوارزميات إلى الانتهاكات المحتملة للمراجعة البشرية، مسارا وسطا. ويجسد
الاعتدال اللامركزي في ويكيبيديا، الذي يجمع بين أدوات الذكاء الاصطناعي والمحررين
المتطوعين، هذا النهج. وعلى نحو مماثل، تستخدم الشركات الناشئة مثل Perspective API "درجات الثقة" بدلاً من القرارات الثنائية، مما يسمح للمنصات بخفض
تصنيف المحتوى الحدودي بدلاً من حذفه.
نحو آلات أخلاقية:
الإبداع وعدم الكمال
يعتمد مستقبل تعديل
الذكاء الاصطناعي على أمرين أساسيين: تحسين الدقة التقنية ودمج الاستشراف الأخلاقي.
وتَعِد التطورات في معالجة اللغة الطبيعية، مثل نماذج المحولات التي تحلل السياق، بكشف
أكثر دقة. وتستخدم مشاريع مثل Jigsaw من Google خوارزميات "الخطاب المضاد"، والتي
تبرز عمليات التحقق من الحقائق جنبًا إلى جنب مع المعلومات المضللة - وهي استجابة مناعية
رقمية.
ومع ذلك، لا يمكن للتكنولوجيا
وحدها حل هذه المعضلة. وكما توضح المؤلفة شوشانا زوبوف في كتابها *عصر رأسمالية المراقبة*،
فإن المنصات التي تحركها الأرباح لديها حوافز متأصلة لإعطاء الأولوية للمشاركة على
السلامة. ويتطلب تصحيح هذا حوكمة تعاونية: شراكات بين شركات التكنولوجيا والأكاديميين
والمجتمع المدني لمراجعة الخوارزميات ووضع المعايير. إن مجلس الرقابة على فيسبوك، وهو
هيئة شبه مستقلة تراجع قرارات التعديل المثيرة للجدل، يمثل خطوة مبدئية نحو مثل هذه
المساءلة.
في نهاية المطاف، يعكس
دور الذكاء الاصطناعي في تعديل المحتوى أسطورة إيكاروس: أداة ذات قوة هائلة يجب استخدامها
بتواضع. لكل نجاح - مثل تحديد معلومات مضللة حول اللقاح باللغة البنغالية - هناك إخفاقات،
مثل ميل ChatGPT إلى توليد ادعاءات معقولة ولكنها كاذبة. لا
يكمن الطريق إلى الأمام في الكمال بل في التقدم: التحسينات المتكررة، والحوار الشفاف،
والالتزام الثابت بالكرامة الإنسانية.
الخاتمة: الرقصة الدقيقة
للبايتات والحقوق
مع تزايد حدة الانقسام
في الساحة العامة الرقمية، تظل تعديلات الذكاء الاصطناعي حلاً وسطًا ضروريًا - حارسًا
معيبًا في عالم غير كامل. تقدم خوارزمياته، مثل أشعة المنارة التي تخترق العاصفة، التوجيه
ولكنها لا تستطيع رسم المسار بالكامل. سيظل التوازن بين السلامة والحرية دائمًا محفوفًا
بالمخاطر، رقصة حيث تحمل الخطوات الخاطئة عواقب وخيمة.
وعلى حد تعبير الفيلسوف
يوفال نوح هراري، "إن الخطر الأعظم المتمثل في الذكاء الاصطناعي هو أن الناس يتوقعون
منه أن يكون معصوما من الخطأ". وللتنقل عبر هذه المتاهة، يتعين على المجتمع أن
يتبنى الذكاء الاصطناعي كأداة، وليس منقذاً ــ أداة تعمل على تضخيم الحكم البشري بدلاً
من استبداله. وعندئذ فقط يمكننا أن ننشئ عالماً رقمياً حيث يزدهر الكلام دون تدمير
النسيج الأساسي للديمقراطية.
0 التعليقات:
إرسال تعليق