هل يمكن أن يقود الذكاء الاصطناعي العالم إلى حربٍ نووية؟ - المصدر 24

البوابة العربية للأخبار التقنية 0 تعليق ارسل طباعة تبليغ حذف

نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
هل يمكن أن يقود الذكاء الاصطناعي العالم إلى حربٍ نووية؟ - المصدر 24, اليوم الأحد 16 نوفمبر 2025 08:10 مساءً

المصدر 24 - تتزايد في السنوات الأخيرة المخاوف من دور الذكاء الاصطناعي داخل المنظومات العسكرية الحساسة، وفي مقدمتها الأسلحة النووية.

ومع أن تلك المخاوف قد تبدو لأول وهلة مستمدة من أفلام الخيال العلمي، فإنّ الخبراء يؤكدون أنّ علاقة الذكاء الاصطناعي بالترسانة النووية واقعية ومتنامية، وأن تأثيرها في اتخاذ القرار قد يتحول إلى مصدر خطر حقيقي إذا لم يُضبط بدقة.

ويحاول تقرير نشره موقع “فوكس” الإخباري تبسيط الصورة وتقديم قراءة لما يجري داخل هذا الملف شديد التعقيد.

السينما صنعت المخاوف… لكن الواقع أكثر تعقيدًا

منذ زمن بعيد أدّت السينما دورًا كبيرًا في تشكيل المخاوف العامة من الحرب النووية، وقدّمت أفلام مثل Terminator و WarGames صورة واضحة لذلك، عندما يصبح الذكاء الاصطناعي واعيًا، ويطلق الصواريخ النووية.

وتكشف التقارير أن السينما بالغت في جانبٍ واحد وأغفلت جوانب أخرى؛ فالذكاء الاصطناعي موجود بالفعل في المنظومة النووية الأمريكية منذ بداياتها؛ إذ اُستُخدمت الحواسيب الرقمية الأولى خلال مشروع مانهاتن الذي أنتج أول قنبلة ذرية. ومع ذلك، لا يعرف أحد بالضبط ما حجم الدور الذي يؤديه الذكاء الاصطناعي اليوم داخل تلك المنظومة، ولا أين يُستخدم تحديدًا.

خطر الذكاء الاصطناعي ليس في التمرّد بل في الفهم

تتجه المخاوف التقليدية نحو سيناريو واحد؛ وهو سيطرة الذكاء الاصطناعي على الأسلحة النووية، واتخاذ قرار الإطلاق دون البشر. لكن من الناحية الواقعية، فإن هناك خطر مختلف تمامًا، وهو متعلق بفهم صانعي القرار طبيعة عمل الذكاء الاصطناعي الذي يساعدهم.

وتعمل الولايات المتحدة على بدء مشروع تحديث نووي ضخم بمليارات الدولارات، وتدفع قيادات عسكرية أمريكية نحو إدخال الذكاء الاصطناعي لتحليل البيانات المتدفقة، لا لاتخاذ قرار الإطلاق. لكن قدرة تلك الأنظمة على معالجة كم ضخم من المعلومات قد تجعل القادة يعتمدون عليها في لحظة حرجة دون فهم كامل لكيفية وصولها إلى استنتاجاتها.

وفي أزمات نووية، قد لا يملك المسؤولون سوى دقائق لاتخاذ قرار قد يغير تاريخ البشرية.

أنظمة بدائية وحديثة في الوقت نفسه

من المفارقات أن جزءًا مهمًا من المنظومة النووية الأمريكية كان يعمل حتى عام 2019 باستخدام أقراص مرنة من ثمانينيات القرن الماضي. هذا “التخلّف التقني” إن جاز وصفه لم يكن ضعفًا، بل أسلوب حماية متعمّد لعزل النظام عن الإنترنت وتقليل فرص الاختراق.

لكن دخول الذكاء الاصطناعي ضمن عملية التحديث يفتح الباب لمخاطر جديدة، أبرزها:

  • الأخطاء التقنية؛ إذ إن نماذج الذكاء الاصطناعي ما زالت عرضة للخطأ.
  • الهجمات السيبرانية؛ إذ يمكن لجهات أجنبية ضخ معلومات مضللة داخل البيانات.
  • الانحياز نحو النتائج الآلية؛ لأن البشر غالبًا ما يثقون بالأنظمة الحاسوبية دون تدقيق كافٍ.

وهذه العوامل، إذا اجتمعت مع ضغوط الوقت واتخاذ القرار، قد تؤدي إلى تصعيد نووي غير مقصود.

ماذا يقول التاريخ؟

عند تحليل أبرز الحوادث التاريخية المرتبطة بنشوب حرب نووية نكتشف نمطًا واضحًا، وهو خطأ التكنولوجيا، ومنع البشر كارثة وشيكة في الوقت ذاته.

ومن الأمثلة البارزة ما حدث عام 1979، عندما تلقّى مستشار الأمن القومي الأمريكي إنذارًا بهجوم صاروخي سوفييتي، قبل اكتشاف أنه كان إنذارًا كاذبًا.

وفي الثمانينيات، رفض الضابط السوفييتي ستانيسلاف بيتروف تنفيذ البروتوكول العسكري السوفيتي بعد إنذار خطأ من النظام بسبب انعكاس الشمس على الغيوم، ويُنسب إليه الفضل في منع هجوم نووي انتقامي خطأ على الولايات المتحدة وحلفائها، وقيام حرب نووية واسعة النطاق.

هذه الحوادث تعزز فكرة مهمة، وهي إدراك البشر معنى الفناء النووي، في حين أن الذكاء الاصطناعي قد لا يملك هذا الوعي.

الذكاء الاصطناعي قد يكون أكثر عدوانية من البشر

تشير اختبارات أجريت على نماذج ذكاء اصطناعي وُضعت ضمن سيناريوهات عسكرية حساسة إلى أنها تميل لاتخاذ قرارات “تصعيدية” أكثر من القادة البشر.

ولا يُعرف سبب ذلك تحديدًا، لكن الخبراء يرجّحون أن غياب الإحساس بالخوف أو بالمسؤولية الأخلاقية يجعل الأنظمة الآلية أكثر ميلًا إلى الحلول العنيفة.

وعلى مدى ثمانية عقود منذ حادثة هيروشيما، كان الخوف الإنساني، وليس التكنولوجيا، جزءًا أساسيًا في منع حرب نووية جديدة.

هل يمكن إزالة الذكاء الاصطناعي نهائيًا من المجال النووي؟

هذا لم يعد ممكنًا؛ فالذكاء الاصطناعي أصبح جزءًا من البنية النووية في عدة دول، وسيظل كذلك لقدرته على معالجة المعلومات بسرعة غير مسبوقة.

لكن النقاش الحقيقي يدور حول سؤال واحد، وهو: هل ستجعل هذه الأنظمة البشر أكثر قابلية لاتخاذ القرار الخطأ؟

وهناك معضلة أعمق، وهي أن المشكلة ليست في الذكاء الاصطناعي نفسه، بل في طبيعة امتلاك البشر السلاح النووي ذاته.

وفي النهاية، لا يبدو أن الذكاء الاصطناعي سيشعل حربًا نووية بمفرده، لكنه قد يجعل احتمال الخطأ البشري أعلى. وهذا وحده كافٍ ليجعل العالم ينظر بحذر شديد إلى أي خطوة جديدة تتعلق بإدماج تلك التقنية في الأسلحة الأكثر تدميرًا على وجه الأرض.

نسخ الرابط تم نسخ الرابط

إخترنا لك

أخبار ذات صلة

0 تعليق