الفصـــل 25 من دستور المملكة : حرية الفكر والرأي والتعبير مكفولة بكل أشكالها. حرية الإبداع والنشر والعرض في المجالات الأدبية والفنية والبحت العلمي, والتقني مضمونة.


إعلانات أفقية

الأربعاء، أبريل 15، 2026

زجاجة (مولوتوف) على بوابة الذكاء الاصطناعي تعلن بداية زمن القلق: عبده حقي

انقلب المشهد فجأة إلى ما يشبه رواية ديستوبية، حيث تحوّل صانعو الذكاء الاصطناعي أنفسهم إلى أهداف مباشرة للعنف. ما جرى مع سام ألتمان، الرئيس التنفيذي لشركة أوبن آي ، خلال شهر أبريل 202
6، لم يكن مجرد حادث أمني عابر، بل علامة فارقة في علاقة الإنسان بالخوارزميات التي صنعها بيديه
.

في العاشر من أبريل، استيقظت مدينة سان فرانسيسكو على وقع حادث غير مسبوق: شاب يبلغ من العمر عشرين عامًا ألقى زجاجة حارقة (مولوتوف) على منزل ألتمان، مما أدى إلى اندلاع حريق محدود عند بوابة المنزل دون وقوع إصابات . لم يكن الأمر مجرد فعل تخريبي، بل عملية مدروسة؛ إذ كشفت التحقيقات لاحقًا أن المهاجم حمل معه بيانًا مكتوبًا يعبّر عن مخاوفه من “نهاية البشرية بسبب الذكاء الاصطناعي .

هذا البيان، الذي وصفه المحققون بأنه “مانيفستو معادٍ للذكاء الاصطناعي”، لم يكتفِ بالتحذير، بل دعا صراحة إلى استهداف قادة التكنولوجيا. وقد عُثر بحوزة المشتبه به على مواد قابلة للاشتعال وأدوات تُشير إلى نية واضحة لإحداث ضرر أكبر .

في تلك اللحظة، لم يكن ألتمان مجرد مدير شركة، بل أصبح رمزًا لصراع عالمي يتصاعد بين دعاة التقدم التكنولوجي وأنصار التوجس من مستقبل تحكمه الآلات.

ولم تمر سوى أيام قليلة حتى تكرر المشهد بشكل أكثر خطورة. ففي حادث منفصل، أُطلق الرصاص على منزل ألتمان نفسه من سيارة عابرة، في تصعيدٍ خطير يعكس انتقال التهديد من الاحتجاج الرمزي إلى العنف المسلح .

ورغم أن التحقيقات الأولية أشارت إلى احتمال عدم وجود صلة مباشرة بين الهجومين، فإن التوقيت المتقارب يوحي بوجود مناخ عام مشحون، يتغذى على خطاب الخوف من الذكاء الاصطناعي، ويحوّله إلى أفعال ميدانية.

لفهم هذا التصعيد، لا بد من العودة إلى سياقه الواسع. خلال السنوات الأخيرة، تصاعدت التحذيرات من مخاطر الذكاء الاصطناعي، سواء من داخل الصناعة نفسها أو من خارجها. بعض الخبراء حذروا من سيناريوهات “الانقراض البشري”، فيما رأت حركات مثل "بوزآي “PauseAI” ضرورة إيقاف التطوير مؤقتًا.

لكن الخطير في الأمر هو أن هذا الخطاب، رغم طابعه النظري، بدأ يتحول إلى محفز نفسي لدى بعض الأفراد. فالمهاجم، بحسب التحقيقات، كان مقتنعًا بأن ما يقوم به هو “إنقاذ للبشرية”، لا جريمة .

هنا تتقاطع التكنولوجيا مع علم النفس، ويتحول الخوف إلى أيديولوجيا، ثم إلى فعل عنيف.

فريق الدفاع عن المتهم أشار إلى أنه كان يعاني من أزمة نفسية حادة، وربما اضطراب في الإدراك . لكن هذا التفسير، رغم أهميته، لا يلغي البعد الأيديولوجي للجريمة. فحتى في حالات الهشاشة النفسية، يحتاج العنف إلى خطاب يغذيه، وإلى فكرة تمنحه شرعية.

في هذه الحالة، كان الذكاء الاصطناعي هو “العدو”، وألتمان هو “الرمز.

لا يمكن فصل هذه الأحداث عن الدور الذي تلعبه وسائل الإعلام وخطابات الشركات التكنولوجية نفسها. فبين من يروّج للذكاء الاصطناعي كخلاص للبشرية، ومن يحذر منه كخطر وجودي، تضيع المسافة الرمادية التي يحتاجها النقاش العقلاني.

وقد حذر قادة في وادي السيليكون من أن “اللغة المتطرفة حول الذكاء الاصطناعي قد تؤدي إلى نتائج خطيرة” . بمعنى آخر، الكلمات ليست بريئة دائمًا؛ فهي قد تتحول إلى شرارة.

ما حدث مع سام ألتمان ليس مجرد حادث أمني، بل هو تجلٍ لصراع أعمق: صراع بين الإنسان ومستقبله التكنولوجي. هل نحن أمام ثورة تحررية، أم أمام تهديد وجودي؟ هل الذكاء الاصطناعي امتداد للعقل البشري، أم بديل عنه؟

هذه الأسئلة، التي كانت تُطرح في كتب الفلسفة، أصبحت اليوم تُكتب بالنار والرصاص.

في أعقاب الهجومين، عززت أوبن آي إجراءاتها الأمنية، ليس فقط لحماية منشآتها، بل أيضًا لحماية موظفيها. لكن السؤال الأهم يبقى: هل يمكن حماية الأفكار؟

يبدو أن التحدي لم يعد تقنيًا فقط، بل إنساني بالدرجة الأولى. فكلما تقدمت الخوارزميات، تعمّقت الفجوة بين من يفهمها ومن يخاف منها.

في النهاية، لا يمكن قراءة ما حدث إلا كعلامة على زمن جديد، زمنٍ لم تعد فيه المعارك تُخاض فقط بين الدول، بل بين الإنسان وظله الرقمي. سام ألتمان، الذي كان حتى الأمس القريب مهندسًا للمستقبل، وجد نفسه فجأة في قلب معركة وجودية، حيث تتحول الخوارزمية إلى شبهة، والتقدم إلى تهمة.

ربما لم يكن المهاجم يقرأ كتب الفلسفة، لكنه كان يعيش نتيجتها: الخوف من المجهول. وفي هذا الخوف، تكمن كل التراجيديات.

إنها لحظة تستدعي التأمل، لا في الذكاء الاصطناعي فقط، بل في الإنسان نفسه… ذلك الكائن الذي يخاف مما يصنع، ويُحارب ما لا يفهم، ويشعل النار في وجه المستقبل، ثم يتساءل: من أين جاء الحريق؟



0 التعليقات: