الفصـــل 25 من دستور المملكة : حرية الفكر والرأي والتعبير مكفولة بكل أشكالها. حرية الإبداع والنشر والعرض في المجالات الأدبية والفنية والبحت العلمي, والتقني مضمونة.


إعلانات أفقية

الخميس، نوفمبر 13، 2025

**هل باتت OpenAI خارجة عن السيطرة؟


 الذكاء الاصطناعي بين طموح الشركات وحدود الحوكمة**

في أقلّ من عقد، انتقلت شركة OpenAI من كونها مبادرة بحثية غير ربحية تُبشّر بمستقبلٍ آمن للذكاء الاصطناعي، إلى قوّة تكنولوجية عالمية تُحرّك أسواق المال، وتُقلق الحكومات، وتعيد تشكيل علاقة الإنسان بالآلة. ومع توسّع قدرات النماذج الجديدة التي

تنتجها مثل GPT-5 وما بعده، بات السؤال يُطرح بإلحاح: هل ما زالت الشركة تحت السيطرة؟ أم أن التكنولوجيا التي تُنتجها تجاوزت القدرة البشرية على ضبطها؟

تحوّل جذري في الفلسفة والهيكلة

حين تأسّست OpenAI عام 2015، طرح مؤسسوها رؤية تقوم على تطوير ذكاء اصطناعي مفتوح، آمن، ويخضع لرقابة أخلاقية. لكن مسار الشركة سرعان ما تغيّر مع ارتفاع تكاليف تطوير النماذج، لتتحوّل في 2019 إلى “كيان مختلط” يجمع بين الطابع الربحي والطابع غير الربحي.

هذا التحوّل خلق موجة من التساؤلات:
هل ما تزال مهمة “خدمة الإنسانية” أولوية؟ أم أن ضغط المستثمرين، وعلى رأسهم Microsoft، أصبح القوة الحقيقية التي تُحرّك الشركة؟

أزمات متتالية تكشف هشاشة الحوكمة

عام 2023 شهد أول صدمة كبرى: إقالة المدير التنفيذي سام ألتمان فجأة، قبل إعادته تحت ضغط داخلي وخارجي. هذه الأزمة أظهرت هشاشة آليات القرار داخل الشركة، وطرحت أسئلة حول مدى قدرة مجلس إدارتها على ممارسة دور رقابي فعّال على تكنولوجيا ذات تبعات عالمية.

وفي السنوات اللاحقة، تصاعدت المخاوف مع:

  • توسيع نطاق قدرات النماذج دون شفافية كافية.

  • خروج بعض الباحثين البارزين محذرين من انحراف الشركة عن مبادئ السلامة.

  • تضارب المصالح بين الهدف الأخلاقي والسباق التجاري العالمي.

تسارع تقني يفوق قدرة التنظيم

تطوّرت نماذج الذكاء الاصطناعي من أدوات محادثة بسيطة إلى أنظمة قادرة على:

  • التحليل المعقّد

  • إنتاج أكواد برمجية متقدمة

  • اتخاذ قرارات شبه مستقلة

  • فهم السياق العاطفي والاجتماعي

  • توفير قدرات محاكاة تُشبه “نواة عقل رقمي”

هذا التسارع جعل الحكومات عاجزة عن وضع تشريعات تُواكب الواقع. فبينما تناقش أوروبا “قانون الذكاء الاصطناعي”، وتُعبّر الولايات المتحدة والصين عن قلق متزايد، تواصل OpenAI إطلاق نماذج جديدة بسرعة قياسية.

الخوف من “فقدان السيطرة”

يتمثل مصدر القلق ليس في أن الذكاء الاصطناعي أصبح “واعيًا”، بل في ثلاثة أمور أساسية:

  1. قدرة الشركة على تطوير تقنيات أقوى مما تستطيع مراقبته
    أي أن خطأ صغير في التصميم أو التدريب قد تكون له آثار واسعة.

  2. الاعتماد العالمي على أنظمتها
    الحكومات، المدارس، الشركات، وحتى قطاع الأمن القومي بات يعتمد على منتجات OpenAI.

  3. غياب الشفافية الكاملة
    فالشركة لا تكشف دائمًا عن منهجيات التدريب، ولا عن حجم البيانات، ولا عن آليات الحماية الداخلية.

بين الهيمنة التقنية والمسؤولية الأخلاقية

بعض الخبراء يرون أن OpenAI أصبحت تمثل “احتكارًا معرفيًا”، خاصة بعد دخول نماذجها في كل القطاعات. وبقدر ما تمنح هذه النماذج فرصًا للتنمية، فإنها تحمل مخاطر مرتبطة بـ:

  • التلاعب بالمعلومات

  • اختراق الخصوصية

  • التأثير على سوق العمل والاقتصاد

  • الاستخدام العسكري أو الأمني غير المنظم

أما الشركة فتؤكد أنّها تعمل على "الحوكمة الذاتية"، وتطلق آليات مراقبة وخبراء سلامة، لكنها في النهاية تُقيّم نفسها بنفسها.

فهل خرجت فعلاً عن السيطرة؟

الجواب معقّد.
OpenAI لم تُصبح كيانًا منفلتًا بالمعنى التقني، لكنها باتت تمتلك قوة تقنية تفوق قدرة المؤسسات التقليدية على ضبطها. وهذا يجعل السؤال الحقيقي كالتالي:

هل المشكلة في OpenAI؟ أم في غياب نظام عالمي قادر على مراقبة الذكاء الاصطناعي؟

المشهد اليوم يشي بأن التحدّي لم يعد تحديًا تقنيًا فقط، بل سياسيًا وأخلاقيًا واقتصاديًا. ومع كل نموذج جديد، يصبح ميزان القوة بين الشركات والحكومات والمجتمعات أكثر هشاشة.

0 التعليقات: