في متاهة وسائل التواصل الاجتماعي، حيث تتنافس مليارات الأصوات على الاهتمام، يحرك محرك الدمى الصامت الخيوط: الخوارزمية. صُممت هذه البوابات الرقمية لتعظيم المشاركة، حيث تقوم بتنظيم المحتوى بكفاءة لا ترحم، مما يخلق غرف صدى تعمل على تضخيم همسات المعلومات المضللة إلى هدير يصم الآذان. وبينما يتصارع المجتمع مع التداعيات - المجتمعات المستقطبة، والثقة المتآكلة في المؤسسات، وتسليح الأكاذيب - يبرز الدور المزدوج للذكاء الاصطناعي كخصم ومنقذ في نفس الوقت. تدرس هذه المقالة كيف تعمل الخوارزميات الاجتماعية على تضخيم المعلومات المضللة، والإمكانات المتناقضة للذكاء الاصطناعي لمكافحة الأزمة أو تفاقمها، والحاجة الملحة إلى أطر أخلاقية للتنقل عبر هذا المستنقع الرقمي.
التضخيم الخوارزمي
للأكاذيب
تعمل منصات التواصل
الاجتماعي وفقًا لمنطق بسيط ولكنه خبيث: فكلما طالت مدة بقاء المستخدمين منخرطين، زادت
عائدات الإعلانات. ولتحقيق هذه الغاية، تعطي الخوارزميات الأولوية للمحتوى الذي يثير
ردود أفعال عاطفية ــ الغضب أو الخوف أو الفرح ــ على الخطاب الدقيق. وكشفت دراسة أجراها
معهد ماساتشوستس للتكنولوجيا في عام 2018 أن الأخبار الكاذبة تنتشر أسرع بست مرات من
المعلومات الواقعية على منصات مثل تويتر، ويرجع هذا جزئيا إلى أن الإثارة تجتذب النقرات.
وكما تزعم زينب توفيكجي في كتابها "تويتر والغاز المسيل للدموع: قوة وهشاشة الاحتجاج
الشبكي"، فإن هذه المنصات ليست أدوات محايدة بل "اقتصادات جذب الانتباه"
التي تكافئ الانتشار الفيروسي على الصدق.
والعواقب وخيمة. فخلال
الانتخابات الرئاسية الأميركية في عام 2016، استغل عملاء روس خوارزميات فيسبوك لاستهداف
الناخبين بمحتوى مثير للانقسام، كما هو مفصل في تقرير لجنة الاستخبارات بمجلس الشيوخ.
وعلى نحو مماثل، استخدمت جماعات مناهضة اللقاحات نظام التوصية في يوتيوب لتوجيه المشاهدين
من المحتوى الطبي الشرعي إلى مقاطع الفيديو المحملة بنظريات المؤامرة، وهي الظاهرة
التي تم توثيقها في *ذا أتلانتيك*. ومثل متدرب الساحر، تطلق الخوارزميات العنان للقوى
التي يكافح منشئوها للسيطرة عليها.
الذكاء الاصطناعي كسلاح
ذو حدين
في حين تعمل الخوارزميات
على تغذية المعلومات المضللة، يقدم الذكاء الاصطناعي أدوات للكشف عنها ومواجهتها. يمكن
لنماذج معالجة اللغة الطبيعية (NLP)،
مثل
GPT-4 من OpenAI، تحليل مجموعات بيانات ضخمة
لتحديد الأنماط التي تشير إلى الأخبار المزيفة - الإشارات اللغوية الدقيقة مثل الادعاءات
المبالغ فيها أو الروايات غير المتسقة. طور الباحثون في جامعة واشنطن نظامًا للتعلم
الآلي يحدد المقالات الإخبارية الملفقة بدقة 88٪، كما نُشر في *نيتشر كوميونيكيشنز*.
تعمل مثل هذه الأدوات على تمكين مدققي الحقائق من العمل على نطاق واسع، وهي ضرورة في
عصر يواجه فيه 64٪ من الأميركيين أخبارًا كاذبة يوميًا، وفقًا لمركز بيو للأبحاث.
ولكن إمكانات الذكاء
الاصطناعي تقوضها إساءة استخدامه. فقد أدت مقاطع الفيديو المزيفة للغاية التي يتم إنشاؤها
بواسطة شبكات التضليل التوليدية (GANs) إلى تعكير صفو الواقع. ففي عام 2022، انتشر مقطع فيديو مُعدل للرئيس الأوكراني
فولوديمير زيلينسكي وهو يحث على الاستسلام على الإنترنت، مما هز مؤقتًا مجتمع الإنترنت
العالمي. وفي الوقت نفسه، يمكن لبرامج الدردشة مثل ChatGPT إنتاج معلومات مضللة مقنعة على نطاق واسع،
مما يجبر المنصات على نشر تدابير مضادة للذكاء الاصطناعي في سباق تسلح لا نهاية له.
وكما يحذر الفيلسوف أفيف أوفاديا، فإن صعود "عدم الاكتراث بالواقع" - الجمهور
الذي أصابه الخدر بسبب انتشار الأكاذيب - يهدد الديمقراطية نفسها.
التكلفة البشرية للخداع
الرقمي
إن التضليل ليس مجرد
مصدر قلق مجرد؛ بل له عواقب ملموسة ومدمرة في كثير من الأحيان. خلال جائحة كوفيد-19،
أدت مزاعم كاذبة حول شبكات الجيل الخامس التي تنشر الفيروس إلى هجمات حرق متعمد على
أبراج الهاتف المحمول في أوروبا. وفي الهند، أثارت شائعات واتساب حول خاطفي الأطفال
أعمال عنف جماعية أسفرت عن أكثر من 30 حالة وفاة. وتؤكد هذه الحلقات على حقيقة مروعة:
الأكاذيب المنتشرة عبر الإنترنت تنتشر إلى ضرر حقيقي في العالم الحقيقي.
والتكلفة النفسية عميقة
بنفس القدر. ربطت دراسة أجريت عام 2021 في *المجلة الطبية البريطانية* التعرض لمعلومات
مضللة صحية بالتردد في تلقي اللقاح، مما أدى إلى تعقيد جهود الاستجابة للوباء. إن الخوارزميات
الاجتماعية، بحكم تصميمها، تحبس المستخدمين في فقاعات تصفية حيث تكون وجهات النظر المعارضة
نادرة. وكما حذر إيلي باريزر في *فقاعة التصفية*، فإن هذا يخلق "عالمًا واحدًا"
حيث يضمر التفكير النقدي، ويسود التحيز التأكيدي.
نحو خوارزميات أخلاقية
ومجتمعات مرنة
إن مكافحة المعلومات
المضللة تتطلب نهجًا متعدد الجوانب. أولاً، يجب إعطاء الأولوية للشفافية الخوارزمية.
لقد بدأت منصات مثل Meta في نشر تفاصيل محدودة حول أنظمة التوصية بالمحتوى، لكن التدابير الطوعية
غير كافية. وتقدم الجهود التشريعية، مثل قانون الخدمات الرقمية للاتحاد الأوروبي، الذي
يفرض تقييمات المخاطر للأضرار الخوارزمية، مخططًا تفصيليًا.
ثانيًا، يجب إضفاء
الطابع الديمقراطي على أدوات الكشف عن الذكاء الاصطناعي. وتوضح مبادرات مثل مختبر المراسلين
بجامعة ديوك، الذي يتعاون مع منظمات التحقق من الحقائق العالمية، قوة العمل الجماعي.
إن دمج التحقق من الحقائق الذي يقوده الذكاء الاصطناعي في المتصفحات والوسائط الاجتماعية
الواقع أن الخوارزميات
الاجتماعية ــ التي تشبه مدققات الإملاء ــ قد تعمل على تحصين المستخدمين ضد الأكاذيب.
وأخيرا، لابد من إعادة
تصور محو الأمية الإعلامية في العصر الرقمي. ووفقاً لمعهد المجتمع المفتوح، فإن المنهج
الوطني الفنلندي، الذي يعلم الطلاب كيفية التعرف على الأخبار المزيفة منذ مرحلة المدرسة
الابتدائية، جعل البلاد الأكثر قدرة على الصمود في مواجهة المعلومات المضللة في أوروبا.
الخاتمة: الإبحار في
السراب الرقمي
إن التفاعل بين الخوارزميات
الاجتماعية والذكاء الاصطناعي يجسد مفارقة التكنولوجيا الحديثة: أداة قادرة على التوحيد
أو التقسيم، والتنوير أو الخداع. ومثلها كمثل الإله الأسطوري جانوس، فإنها تنظر في
الوقت نفسه نحو اليوتوبيا والواقع المرير. ومع ذلك، لا ينبغي أن تكون هذه لعبة محصلتها
صفر. فمن خلال تسخير الذكاء الاصطناعي أخلاقيا، وفرض المساءلة الخوارزمية، وتعزيز محو
الأمية الرقمية، يمكن للمجتمع أن يفكك غرف الصدى والسراب التي تشوه الواقع.
وكما يقول المؤرخ يوفال
نوح هراري في كتابه "21 درسا للقرن الحادي والعشرين"، فإن التحدي الأعظم
في عصرنا ليس التقدم التكنولوجي بل الحكمة اللازمة لحكمه. وفي المعركة ضد التضليل الإعلامي،
لا تقل المخاطر عن سلامة الحقيقة نفسها ــ الأساس الذي تعتمد عليه الديمقراطية والعلم
والاتصال الإنساني. ربما تكون الخوارزميات التي تشكل عالمنا مكتوبة بالرموز، لكن تأثيرها
إنساني إلى حد كبير ولا رجعة فيه. وفقط من خلال إدراك هذه الثنائية يمكننا أن نرسم
مسارا عبر البرية الرقمية، نحو مستقبل حيث لا تعمل التكنولوجيا كفاصل، بل كجسر.
0 التعليقات:
إرسال تعليق