الفصـــل 25 من دستور المملكة : حرية الفكر والرأي والتعبير مكفولة بكل أشكالها. حرية الإبداع والنشر والعرض في المجالات الأدبية والفنية والبحت العلمي, والتقني مضمونة.


السبت، مارس 15، 2025

حربٌ تقنية باردة .. OpenAI تدعو رسميًا إلى حظر DeepSeek ترجمة عبده حقي


أثارت دعوة
أوبن آي الأخيرة لحظر ديبسيك، وهو نظام ذكاء اصطناعي منافس، جدلاً واسعاً في أوساط التكنولوجيا، مُبرزةً توتراً قديماً قدم الابتكار نفسه: الصراع بين التقدم غير المقيد والحواجز الأخلاقية التي وُضعت لتقييده. ومثل إيكاروس الذي يحلق نحو الشمس، يتأرجح سعي البشرية وراء الذكاء الاصطناعي بين العبقرية والغطرسة. إن هذه اللحظة، التي يُؤطرها نداء أوبن آي غير المسبوق، تدعو إلى دراسة أعمق للمعضلات الأخلاقية والوجودية التي تُخيم على الصعود الصاروخي للذكاء الاصطناعي - رحلة مُبهجة ومحفوفة بالمخاطر في آن واحد.

في جوهره، يعكس موقف أوبن آي حسابات أوسع نطاقاً في هذا المجال. فالمؤسسة، التي كانت في السابق رائدة في تطوير الذكاء الاصطناعي مفتوح المصدر، تدعو الآن إلى ضبط النفس، مُحذرةً من أن أنظمة مثل ديبسيك قد تتجاوز الرقابة البشرية. يُثير هذا التحول سابقة تاريخية، بدءًا من علماء الذرة في مشروع مانهاتن الذين يتصارعون مع عواقب ابتكاراتهم، وصولًا إلى خبراء الأخلاقيات الحيوية الذين يواجهون إمكانات كريسبر ذات الحدين.

في كتابه "21 درسًا للقرن الحادي والعشرين"، يُحذر يوفال نوح هراري من أن قوة الذكاء الاصطناعي لا تكمن في الحقد، بل في قدرته على "اختراق البشرية"، وإعادة تشكيل المجتمعات من خلال خوارزميات غامضة. لذا، فإن تحذير أوبن آي لا يتعلق بالتنافس بقدر ما يتعلق بإدراك عتبة - نقطة يمكن أن يتجاوز فيها الابتكار السيطرة.

ومع ذلك، لا يزال الشك قائمًا. يقول النقاد بأن الدعوات إلى التنظيم غالبًا ما تُخفي المصالح الاستراتيجية، وهي تكرار حديث للحمائية المؤسسية مُغلفًا بخطاب أخلاقي. ففي النهاية، ليس مجال الذكاء الاصطناعي غريبًا على المنافسة؛ إذ تُهدد قدرات ديبسيك المزعومة في اتخاذ القرارات المستقلة والتحليلات التنبؤية بتعطيل الأسواق، من الرعاية الصحية إلى أسلحة الدفاع.

هنا، يلوح شبح فرانكشتاين لماري شيلي في الأفق: فالمبدع غير مرتاح لاستقلالية إبداعه. ولكن على عكس فيكتور فرانكشتاين، يعمل مطورو اليوم ضمن أنظمة بيئية تُشكّلها الربحية والجغرافيا السياسية. عندما أدلى سام ألتمان، المؤسس المشارك لشركة أوبن آي، بشهادته أمام الكونغرس عام 2023، حاثًا على حوكمة استباقية للذكاء الاصطناعي، رددت تحذيراته صدى تحذيرات علماء المناخ - وهو تشخيص قاتم قوبل بإجراءات مجزأة.

تزيد الفروق التقنية في تصميم ديبسيك من تعقيد النقاش. فعلى عكس النماذج التوليدية مثل  GPT-4، التي تعمل ضمن حدود لغوية محددة مسبقًا، يُقال إن ديبسيك يستخدم آليات تحسين ذاتي متكررة - وهي ميزة تُشبه منح "الطفل مفاتيح المكتبة والقدرة على إعادة تصميم عقله"، كما قالت باحثة الذكاء الاصطناعي ميلاني ميتشل مازحةً في كتابها "الذكاء الاصطناعي: دليل للبشر المفكرين". إن تُركت هذه الأنظمة دون رادع، فقد تتطور بطرق تتحدى الفهم البشري، مما يُثير "مشكلة التوافق" التي طرحها نيك بوستروم نظريًا. وقد أكدت مبادئ أسيلومار للذكاء الاصطناعي لعام 2017، التي وقّعها آلاف الباحثين، على ضرورة ضمان بقاء أنظمة الذكاء الاصطناعي "مفيدة للغاية". ومع ذلك، لا تكفي المبادئ وحدها لتخفيف المخاطر عندما يتفوق التطوير على السياسات.

تكشف الاستجابات العالمية لهذه المعضلة عن خليط من المقاربات. يُصنّف قانون الذكاء الاصطناعي للاتحاد الأوروبي، الذي أُقرّ عام 2024، أنظمة عالية المخاطر مثل ديبسيك بموجب متطلبات شفافية صارمة، بينما تُعطي "خطة تطوير الجيل التالي من الذكاء الاصطناعي" الصينية الأولوية لتكامل الأمن القومي. في المقابل، لا تزال الولايات المتحدة غارقة في جمود تشريعي، ومنهجها مُجزّأ بسبب الانقسامات الحزبية. يعكس هذا التنافر التنظيمي بدايات الإنترنت - عالم كان يُشاد به سابقًا على أنه يوتوبيا بلا حدود، ولكنه الآن مُمزّق بسبب سيادة البيانات والمراقبة.

وسط هذه التوترات، تبرز حقيقة متناقضة: إن البراعة التي تدفع الذكاء الاصطناعي إلى الأمام قد تكون هي القوة الوحيدة القادرة على كبح جماحه. تواجه حركة المصادر المفتوحة، التي يُحتفى بها لإضفاء الطابع الديمقراطي على الابتكار، الآن أسئلة وجودية. إذا كانت منصات مثل GitHub تستضيف برمجيات يمكنها إشعال فتيل ذكاء اصطناعي لا يمكن السيطرة عليه، فهل تتطلب أخلاقيات التعاون إعادة تعريفه؟ تُحذر المؤرخة جيل ليبورا، في كتابها "إذاً: كيف اخترعت شركة سيمولماتيك Simulmatics  المستقبل"*، من أن وعود التكنولوجيا غالبًا ما تُخفي مخاطرها حتى تصبح لا رجعة فيها. يكمن التحدي، إذن، في تعزيز الابتكار دون تكرار أخطاء وسائل التواصل الاجتماعي - وهو مجال لم تصل إليه الرقابة إلا بعد أن تفاقم خلل المنصات.

إن دعوة أوبن آي لحظر ديبسيك ليست حلاً سحريًا ولا استسلامًا. إنها أحد أعراض تفاوض وجودي أوسع نطاقًا، يضع فضول البشرية اللامحدود في مواجهة غريزة الحفاظ على الذات. بينما نقف عند مفترق الطرق هذا، يتطلب الطريق إلى الأمام أكثر من مجرد خبرة تقنية؛ بل يتطلب حكمة الفلاسفة، وبصيرة صانعي السياسات، ويقظة المجتمع نفسه. فكما قال آرثر سي. كلارك: "أي تقنية متقدمة بما يكفي لا يمكن تمييزها عن السحر" - لكن السحر، كما تُذكرنا الأساطير، غالبًا ما يتطلب ثمنًا.

يُقدم فجر الذكاء الاصطناعي، مثل شعلة بروميثيوس، نورًا.

العولمة والخطر على حد سواء. وللتعامل مع هذه الثنائية، يجب على البشرية أن تبتكر قاموسًا جديدًا - قاموسًا ينسجم بين الطموح والتواضع، والابتكار والنزاهة. حينها فقط يمكننا ضمان أن تظل الآلات التي نصنعها خادمةً لمُثُلنا العليا، لا مُهَدِّدةً لتدميرنا.

لا يمكن إغفال الأبعاد الأخلاقية لنشر نماذج الذكاء الاصطناعي التي قد تخضع لتأثير الدولة. إن احتمالية نشر أنظمة الذكاء الاصطناعي لروايات أو معلومات مضللة برعاية الدولة تُشكل تحديًا عميقًا لمبادئ حرية التعبير ونشر المعلومات بشكل غير متحيز. وتعكس دعوة أوبن آي لحظر ديبسيك قلقًا أوسع نطاقًا بشأن الآثار الجيوسياسية لتقنيات الذكاء الاصطناعي وضرورة حماية القيم الديمقراطية في العصر الرقمي.

في الختام، تُجسد دعوة أوبن آي لحظر ديبسيك التقاطع المعقد بين الابتكار التكنولوجي والأمن القومي والحوكمة الأخلاقية. ومع استمرار التقدم السريع للذكاء الاصطناعي، يواجه المجتمع العالمي مهمة جسيمة تتمثل في الموازنة بين فوائد التقدم التكنولوجي وضرورة حماية الحريات الفردية والحفاظ على الاستقرار الجيوسياسي. يُذكرنا النقاش الدائر حول أوبن آي وديبسيك بالتحديات المتعددة الجوانب التي تصاحب السعي لتحقيق التفوق في مجال الذكاء الاصطناعي في القرن الحادي والعشرين.

0 التعليقات: