في متاهة التكنولوجيا الحديثة، برز الذكاء الاصطناعي كراوي نصوص خارق ومهرج خبيث. تقوم الأنظمة الآلية الآن بصياغة المقالات الإخبارية، وتوليد نصوص تسويقية، وحتى تأليف الشعر بدقة خوارزمية. ومع ذلك، تحت هذا القشرة من الكفاءة تكمن قصة أكثر قتامة - حيث يكشف الذكاء الاصطناعي المعيب، الذي تم التلاعب به عمدًا لإنتاج حكايات سخيفة أو متحيزة، عن الشقوق الأخلاقية والمخاطر الإيديولوجية الكامنة داخل السرد الآلي. تكشف هذه الظاهرة، التي تشبه حمل مرآة مرحة للآلة، كيف يمكن للأدوات المصممة لتبسيط الإبداع أن تشوه الواقع، وتضخم التحيز، وتقوض الوكالة البشرية.
تم الإشادة بصعود أنظمة
السرد التي يقودها الذكاء الاصطناعي باعتباره انتصارًا للإبداع الحاسوبي. الواقع أن
نماذج مثل
GPT-3 وخلفائها،
المدربة على مجموعات ضخمة من اللغة البشرية، تحاكي إيقاع وتعقيد الفكر البشري بدقة
مخيفة. ومع ذلك، كما تزعم صفية أوموجا نوبل في كتابها "خوارزميات القمع"،
فإن التقنيات المبنية على بيانات متحيزة تخاطر بإدامة التفاوتات النظامية. فعندما تولد
هذه الأنظمة النصوص، فإنها غالبا ما تعيد إنتاج التحيزات المضمنة في موادها التدريبية
ــ سواء من خلال تضخيم الصور النمطية العنصرية، أو التحيزات الجنسانية، أو المحو الثقافي.
في عام 2021، كشف تحقيق أجرته مؤسسة "ذا مارك أب" أن ملخصات الأخبار التي
تولدها الذكاء الاصطناعي تربط بشكل غير متناسب بين المجتمعات السوداء والجريمة، وهو
ما يعكس الروايات المشوهة الموجودة في بيانات المصدر. ومثل هذه النتائج ليست مجرد خلل
بل أعراض لمرض أعمق: عجز السرد الآلي عن تجاوز قيود مهندسيه البشريين.
ومع ذلك، بدأ بعض المبدعين
والنقاد في تسليح هذه العيوب كشكل من أشكال النقد التخريبي. إن الذكاء الاصطناعي يفرض
على الأنظمة الكشف عن حدودها من خلال تغذية نماذج الذكاء الاصطناعي عمداً بمطالبات
متناقضة، أو معايير سخيفة، أو سيناريوهات متوترة أخلاقياً. ولنتأمل هنا مشروع
"الروبوت السيء" لعام 2022، حيث درب الفنانون شبكة عصبية على نظريات المؤامرة
الديستوبية وبيانات اليمين المتطرف. وكانت النصوص الناتجة ــ وهي عبارة عن خليط من
الهذيان البارانويدي والادعاءات غير المنطقية ــ تعكس أنظمة التضليل التي ابتليت بها
وسائل التواصل الاجتماعي. ومثل مشروع "اقتراح متواضع" لجوناثان سويفت، استخدم
المشروع السخرية لكشف مخاطر السرديات الخوارزمية غير المنظمة. وعلى نحو مماثل، سلط
مهندس جوجل الذي ادعى بشكل مشهور أن الذكاء الاصطناعي الخاص بشركة LaMDA قد حقق الإحساس عن غير قصد الضوء على مدى
سهولة تشبيه البشر للآلات، وخلطهم بين المخرجات الاحتمالية والوعي.
وتؤكد هذه التجارب
على التوتر الحرج: فالخط الفاصل بين الأداة والطاغية في أنظمة الذكاء الاصطناعي رفيع
بشكل خطير. في كتابها "عصر رأسمالية المراقبة"، تحذر شوشانا زوبات من أن
التقنيات المصممة للتنبؤ بالسلوك البشري والتلاعب به تعمل غالبًا كـ"قوة أداة"،
تعيد تشكيل الواقع بما يتناسب مع أجندات الشركات أو السياسة. وعندما يتم تطبيق هذه
القوة على سرد النصوص، فإنها تخاطر بتقليص السرد إلى مجرد نقاط بيانات، يتم تحسينها
من أجل المشاركة بدلاً من الحقيقة. ويجسد الجدل الذي دار عام 2020 حول برنامج OpenAI GPT-3 لتوليد مقالات إخبارية كاذبة هذا التهديد.
فمن خلال أتمتة إنتاج الأكاذيب المقنعة، أصبح النظام بمثابة باندورا رقمية، يطلق العنان
للمعلومات المضللة بكفاءة صناعية.
ولكن ماذا لو كان تبني
عبثية الذكاء الاصطناعي المعيب يمكن أن يحصننا ضد مخاطره؟ تدافع الفيلسوفة دونا هارواي،
في "بيان سايبورغ"، عن "الأساطير الساخرة" التي تطمس الحدود بين
الإنسان والآلة لتحدي هياكل السلطة المهيمنة. وعلى نحو مماثل، تدعو النصوص السخيفة
المتعمدة التي تولدها الذكاء الاصطناعي ــ مثل سلسلة من النصوص الفيروسية الأخيرة حيث
روى موقع
ChatGPT وصفة طبخ
على أنها مأساة شكسبيرية ــ الجماهير إلى التشكيك في سلطة الأنظمة الآلية. وتعمل هذه
الروايات كتنافر معرفي، فتدفع المستخدمين إلى التخلي عن الاستهلاك السلبي وتدخلهم في
المشاركة النقدية. ومثل مسرح العبث، تكشف هذه النصوص عن الفوضى الكامنة وراء وهم النظام،
وتذكرنا بأن الآلات تفتقر إلى البوصلة الأخلاقية اللازمة للتنقل عبر المستنقعات الأخلاقية
لرواية النصوص.
والآثار الأخلاقية
عميقة. فإذا لم تتمكن أنظمة رواية النصوص التي تعمل بالذكاء الاصطناعي من التمييز بين
الحقيقة والاختلاق، والعدالة والتحيز، فإنها تخاطر بأن تصبح محركات أورويلية للانهيار
المعرفي. ومع ذلك، وكما تؤكد الباحثة كيت كروفورد في كتابها "أطلس الذكاء الاصطناعي"،
فإن هذه التقنيات ليست قوى حتمية بل نتاج اختيارات بشرية. والحل لا يكمن في التخلي
عن رواية النصوص الآلية بل في إعادة تصميمها مع مراعاة الشفافية والمساءلة والتنوع
في جوهرها. وتدعو مبادرات مثل معهد الذكاء الاصطناعي الآن إلى تدقيق الأنظمة بحثًا
عن التحيز وإشراك المجتمعات المهمشة في التنمية ــ وهو الترياق لمجموعات البيانات الأحادية
الثقافة التي تغذي هذه النماذج حاليًا.
وفي هذه الرقصة بين
الإبداع والنقد، تعمل سرديات الذكاء الاصطناعي المعيبة كتحذير وبوصلة. فهي تذكرنا بأن
رواية النصوص ليست مجرد عمل فني بل عمل إنساني عميق.
الواقع أن هذا التحول
في السرد النصوصي لا يقتصر على الخوارزميات، بل يمتد إلى الحقيقة نفسها.
المراجع
- نوبل، س. يو. (2018). *خوارزميات القمع: كيف
تعزز محركات البحث العنصرية*. مطبعة جامعة نيويورك.
- زوبوف، س. (2019). *عصر رأسمالية المراقبة:
النضال من أجل مستقبل إنساني على الحدود الجديدة للسلطة*. الشؤون العامة.
- كروفورد، ك. (2021). *أطلس الذكاء الاصطناعي:
السلطة والسياسة والتكاليف الكوكبية للذكاء الاصطناعي*. مطبعة جامعة ييل.
- هارواي، د. (1985). "بيان سايبورغ: العلم
والتكنولوجيا والاشتراكية النسوية في أواخر القرن العشرين". *القردة والسايبورغ
والنساء: إعادة اختراع الطبيعة*. روتليدج.
- *مارك أب*. (2021). "ملخصات الأخبار التي
تم إنشاؤها بواسطة الذكاء الاصطناعي تظهر تحيزًا عنصريًا". مأخوذ من https://themarkup.org/
0 التعليقات:
إرسال تعليق