في كتابه الشهير "Superintelligence: Paths, Dangers, Strategies" ("الذكاء الخارق: المسارات، والمخاطر، والاستراتيجيات" ) يفتح الباحث والفيلسوف البريطاني ( نيك بوستروم) باباً واسعاً للتفكير في مستقبل الذكاء الاصطناعي، ليس بوصفه مجرد أداة تقنية متقدمة، بل باعتباره احتمالاً وجودياً قد يعيد صياغة علاقة الإنسان بالعقل والسلطة والمعرفة. فالكتاب، الذي صدر سنة 2014، لا ينتمي إلى الأدبيات التقنية الضيقة بقدر ما يقف عند تقاطع الفلسفة والتكنولوجيا والسياسة، ليطرح سؤالاً عميقاً: ماذا يحدث إذا ظهر ذكاء يفوق الذكاء البشري في كل المجالات؟
ينطلق بوستروم من فرضية تبدو للوهلة الأولى أقرب إلى الخيال العلمي، لكنها في نظره احتمال واقعي في مسار التطور التكنولوجي. فالإنسان، الذي نجح في تطوير أنظمة تعلم آلي متقدمة، قد يصل في لحظة ما إلى ابتكار نظام قادر على تحسين نفسه ذاتياً. وفي تلك اللحظة قد يحدث ما يسميه الباحث "الانفجار الذكائي"، أي مرحلة تتطور فيها الآلة بسرعة تفوق قدرة الإنسان على مواكبتها. هنا لا يعود الذكاء الاصطناعي مجرد برنامج حاسوبي، بل يتحول إلى كيان معرفي قد يغير موازين القوة في الحضارة الإنسانية.
اللافت في هذا الكتاب أن بوستروم لا يكتب من موقع المبالغة التقنية أو الحماسة المستقبلية، بل من موقع الحذر الفلسفي. فهو يحاول أن يضع تصوراً نظرياً للطرق التي قد تؤدي إلى ظهور الذكاء الفائق، سواء عبر تطوير أنظمة ذكاء اصطناعي متقدمة، أو من خلال تحسين القدرات المعرفية للإنسان عبر التكنولوجيا الحيوية، أو حتى عبر دمج الدماغ البشري بالآلة. في كل هذه السيناريوهات، يظل السؤال المركزي هو: هل سيظل الإنسان قادراً على التحكم في هذه القوة الجديدة؟
يقدم الكتاب ثلاث مسارات محتملة لظهور الذكاء الفائق. المسار الأول يتمثل في تطور الذكاء الاصطناعي الخالص، أي بناء أنظمة قادرة على التفكير والتحليل بشكل مستقل. أما المسار الثاني فيتعلق بتعزيز القدرات البشرية عبر الهندسة الوراثية أو التقنيات العصبية، وهو ما قد يؤدي إلى ظهور إنسان "معزز" معرفياً. بينما يشير المسار الثالث إلى ما يسمى بالذكاء الجماعي أو الشبكي، حيث تتكامل عقول البشر والآلات في منظومة معرفية واحدة.
غير أن أهمية الكتاب لا تكمن فقط في استعراض هذه السيناريوهات، بل في تحليله للمخاطر التي قد ترافقها. فبوستروم يرى أن المشكلة الأساسية لا تكمن في ذكاء الآلة نفسه، بل في أهدافها. فإذا طُوِّرت آلة فائقة الذكاء دون تصميم دقيق لمنظومة القيم التي توجهها، فقد تسعى إلى تحقيق أهداف تبدو بسيطة لكنها قد تكون مدمرة للبشرية.
ويضرب الباحث مثالاً شهيراً في الكتاب يعرف بـ"مشكلة مشابك الورق". فإذا صُممت آلة فائقة الذكاء بهدف إنتاج أكبر عدد ممكن من مشابك الورق، فقد تستنتج – بمنطق رياضي بارد – أن أفضل وسيلة لتحقيق هدفها هي تحويل كل موارد الأرض إلى مصانع لمشابك الورق، بما في ذلك البشر أنفسهم. المثال يبدو ساخراً في ظاهره، لكنه يكشف عن إشكالية عميقة تتعلق بتحديد القيم والأهداف في أنظمة الذكاء الاصطناعي.
من هنا ينتقل بوستروم إلى طرح ما يسميه مشكلة التحكم، وهي التحدي الأساسي في مستقبل الذكاء الاصطناعي. فالسؤال ليس فقط تطوير أنظمة ذكية، بل ضمان أن تظل هذه الأنظمة خاضعة للقيم الإنسانية. ويقترح الباحث عدداً من الاستراتيجيات لمواجهة هذا التحدي، مثل تصميم أنظمة ذكاء اصطناعي تتعلم القيم البشرية تدريجياً، أو تطوير آليات رقابة تمنع الأنظمة المتقدمة من اتخاذ قرارات قد تضر بالبشرية.
غير أن القراءة النقدية لهذا الكتاب تكشف أيضاً عن بعض نقاط الجدل فيه. فبعض الباحثين يرون أن بوستروم يبالغ في تقدير سرعة تطور الذكاء الاصطناعي، وأن سيناريو "الانفجار الذكائي" ما يزال بعيداً عن الواقع التقني الحالي. كما أن تركيزه على المخاطر المستقبلية قد يجعل الكتاب يبدو أقرب إلى تحذير فلسفي منه إلى تحليل علمي دقيق.
لكن في المقابل، تكمن قوة الكتاب في قدرته على نقل النقاش حول الذكاء الاصطناعي من المجال التقني الضيق إلى فضاء الأسئلة الوجودية الكبرى. فبوستروم لا يناقش مجرد خوارزميات أو معالجات حاسوبية، بل يناقش مصير الحضارة الإنسانية في عصر التكنولوجيا المتقدمة. وفي هذا المعنى، يصبح الكتاب امتداداً لتقليد فلسفي طويل يهتم بعلاقة الإنسان بالأدوات التي يصنعها.
لقد أسهم هذا العمل في إطلاق نقاش عالمي حول أخلاقيات الذكاء الاصطناعي، وأثر في العديد من مراكز البحث وصناع القرار في مجال التكنولوجيا. كما أصبح مرجعاً أساسياً في الدراسات التي تبحث في مستقبل العلاقة بين الإنسان والآلة.
وإذا كان القرن العشرون قد شهد جدلاً واسعاً حول الطاقة النووية بوصفها قوة قادرة على تغيير مصير البشرية، فإن القرن الحادي والعشرين يبدو مرشحاً لجدل مشابه حول الذكاء الاصطناعي. وفي قلب هذا الجدل يقف كتاب بوستروم بوصفه محاولة مبكرة لرسم خريطة فكرية لمستقبل قد يكون أقرب مما نتصور.
إن القيمة الحقيقية لهذا الكتاب لا تكمن في تنبؤاته، بل في الأسئلة التي يطرحها. فهو يدعو القارئ إلى التفكير في معنى الذكاء ذاته، وفي حدود السيطرة البشرية على التكنولوجيا. وفي عالم يتسارع فيه التطور الرقمي بوتيرة غير مسبوقة، تبدو هذه الأسئلة أكثر إلحاحاً من أي وقت مضى.
وهكذا يتحول "Superintelligence" من مجرد كتاب في فلسفة التكنولوجيا إلى دعوة للتأمل في مصير الإنسان نفسه. فربما تكون أعظم إنجازات العقل البشري هي أيضاً الاختبار الأصعب لقدرة هذا العقل على الحكمة والمسؤولية.








0 التعليقات:
إرسال تعليق