في عصر يبدو فيه أن التكنولوجيا تُبشر بالحياد والعدالة الرقمية، تأتي الباحثة الأميركية «سافييا أوموجا نوبل» لتفضح هذا الوهم في كتابها الصادم
"Algorithms of Oppression" أو "خوارزميات القمع". هذا الكتاب، الذي نُشر سنة 2018، يُعد من أبرز الأعمال النقدية التي
كشفت كيف يمكن للتقنيات الرقمية، وخاصة محركات البحث مثل غوغل، أن تُعيد إنتاج التمييز العنصري والجنسي والطبقي، بل وتضفي عليه شرعية جديدة تحت قناع «الحياد الخوارزمي».اعتمدت نوبل في بحثها
على مزيج من الدراسات الإعلامية، والنسوية السوداء، ونقد الرأسمالية التقنية، لتقديم
تحليل جذري للتكنولوجيا التي أصبحت جزءاً لا يتجزأ من الحياة اليومية. وتتمحور حجتها
الأساسية حول أن محركات البحث ليست أدوات محايدة كما تُصور، بل هي مؤسسات تجارية خاضعة
لمصالح اقتصادية، وهياكل اجتماعية تعيد إنتاج أنماط التحيز المهيمنة.
في أحد أبرز الأمثلة
التي افتتحت بها الكاتبة كتابها، قامت بإجراء بحث بسيط على محرك غوغل باستخدام عبارة "Black
girls"،
فكانت النتائج عبارة عن صور ومواقع إباحية ومحتويات مهينة. هذا الاكتشاف البسيط والمروع
دفع نوبل إلى طرح سؤال جوهري: «هل يمكن أن تكون محركات البحث خوارزميات للقمع؟»
من هنا بدأت رحلتها
الاستقصائية لتفكيك الطريقة التي تُنظم بها البيانات، وكيف يُصنَّف الناس من خلال برمجيات
تُبنى وفق خوارزميات مملوكة لشركات لا تخضع لأي رقابة ديمقراطية فعلية. وتؤكد نوبل
أن هذه الخوارزميات ليست فقط انعكاساً لتحيزات المجتمع، بل هي أدوات نشطة في إعادة
إنتاجها وتعزيزها، خصوصًا عندما يتعلق الأمر بالأقليات العرقية، والنساء، والفقراء.
تحاول نوبل أن تهدم
واحدة من أكبر الأساطير في عصر التكنولوجيا: أن الخوارزميات "تعكس" الواقع.
في الواقع، ما تقوم به هذه الخوارزميات هو «بناء» واقع معين، واقع تجاري موجه يتم فيه
تصنيف الناس لا كأشخاص، بل كبيانات قابلة للاستغلال. في هذا السياق، يصبح من الخطير
اعتبار النتائج التي تعرضها محركات البحث مجرد "مرآة" لما يبحث عنه الناس،
لأن ما يُعرض علينا لا يُحدد فقط بما نطلب، بل أيضاً بما تُقرر الشركات أنه "مهم"،
و"مربح"، و"قابل للتسويق".
ومن خلال أمثلة متعددة،
تكشف نوبل أن الخوارزميات تصنف النساء السوداوات والفتيات الأمريكيات من أصول أفريقية
كسلع جنسية، في حين تُمثل البيض بطرق أكثر إيجابية وشرعية. وهنا لا يكون التحيز مجرد
خطأ تقني، بل هو نتيجة لسياسات تجارية مبنية على تصنيف البشر وفقًا لقيم السوق والرغبة
في الربح السريع.
أحد محاور الكتاب المهمة
هو نقد "رأسمالية المراقبة" (التي تناولتها لاحقًا شوشانا زوبوف في كتابها)،
حيث تعتبر نوبل أن ما يجري اليوم هو تحويل الناس إلى "مواد أولية" تنتج بيانات
تُستغل لأغراض تجارية. وهذه العملية لا تحدث في الخفاء فقط، بل تُقدم للناس كمظهر من
مظاهر الحرية والانفتاح: "ابحث عمّا تريد!"، ولكن النتائج التي تراها ليست
بالضرورة ناتجة عن بحثك وحده، بل عن علاقات مالية وتحيزات ثقافية تُبرمج في صمت.
إن محركات البحث، كما
تشرح الكاتبة، لا تفرق بين معلومة دقيقة وتحامل عنصري. وما يزيد من خطورة هذا الأمر
هو أن معظم المستخدمين يثقون في النتائج الأولى التي تظهر لهم، دون أن يدركوا أنها
قد تكون مدفوعة الثمن أو ناتجة عن خوارزميات مشحونة بانحيازات لا يملكون عنها أي فكرة.
في نهاية الكتاب، لا
تكتفي نوبل بتشخيص المرض، بل تدعو إلى تغيير عميق في بنية صناعة التكنولوجيا. فهي ترى
أن الحل لا يكمن فقط في تعديل الخوارزميات أو تحسين الشفافية، بل في إعادة التفكير
في من يتحكم بالبيانات، ومن يُقرر ما هو مرئي وما هو مخفي. وتدعو إلى مشاركة مجتمعية
وسياسية واسعة تفرض رقابة ديمقراطية على الشركات الكبرى مثل غوغل وفيسبوك، وتفتح المجال
لنماذج بديلة للتكنولوجيا تخدم المصلحة العامة لا فقط جيوب المستثمرين.
رغم أن الكتاب يستند
إلى سياق أميركي، إلا أن قراءته تفتح أعيننا في العالم العربي على قضايا لم ننتبه لها
بما يكفي. فاليوم، يعتمد الملايين في منطقتنا على محركات البحث كمصدر أول للمعلومة،
دون وعي بآليات السيطرة والتوجيه التي تُمارس خلف الشاشة. والأسوأ من ذلك، أن خطاب
الكراهية ضد الأقليات، أو تهميش بعض الفئات الاجتماعية، يُعاد إنتاجه بطريقة رقمية
تحت غطاء التكنولوجيا.
لقد حان الوقت، كما
تُلمح نوبل، لأن نعيد التفكير ليس فقط في ماذا نبحث، بل «كيف» نبحث، ومن يُسيطر على
الأدوات التي تقود بحثنا.
"خوارزميات القمع" كتاب ضروري في زمن
تُمارس فيه السيطرة بشكل غير مرئي، وتُغلف فيه العنصرية بالبيانات، وتُسوق فيه الهيمنة
على أنها حياد تقني. إنه نداء عاجل لفهم أن التكنولوجيا ليست قدراً، بل هي منتج سياسي
وثقافي يجب مساءلته باستمرار.
0 التعليقات:
إرسال تعليق