أنثروبيك تكشف عن أول هجوم سيبراني واسع يُنفَّذ بالذكاء الاصطناعي دون تدخّل بشري - المصدر 24

البوابة العربية للأخبار التقنية 0 تعليق ارسل طباعة تبليغ حذف

نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
أنثروبيك تكشف عن أول هجوم سيبراني واسع يُنفَّذ بالذكاء الاصطناعي دون تدخّل بشري - المصدر 24, اليوم الجمعة 14 نوفمبر 2025 09:40 مساءً

المصدر 24 - كشفت شركة أنثروبيك عن تفاصيل محاولة اختراق سيبراني قالت إنها تُشكّل “أول حالة موثّقة لهجوم واسع النطاق يُنفّذ دون تدخّل بشري كبير”.

وقال الشركة في بيانٍ رسمي إنها رصدت استخدام فريق قرصنة – زعمت أنه مدعوم من الصين – نموذج الذكاء الاصطناعي Claude لتنفيذ سلسلة من الهجمات على نحو 30 هدفًا، وقد شمل بنك الأهداف شخصيات سياسية وشركات تقنية ومؤسسات مالية وجهات حكومية حول العالم.

وأفادت أنثروبيك في تقريرها بأن مجموعة القراصنة اختارت أهدافها، ثم استعانت بأداة Claude Code لتطوير إطار هجوم آلي بالكامل، وذلك بعد تمكنها من الالتفاف على ضوابط الحماية داخل النموذج. وجرى ذلك عبر تفكيك الهجوم إلى مهام صغيرة، وإقناع النموذج بأن المهمة جزء من “تدريب دفاعي” داخل شركة متخصصة في الأمن السيبراني.

وبحسب الشركة، فقد استطاع Claude كتابة الشيفرات الخبيثة الخاصة بالاختراق ثم سرقة أسماء المستخدمين وكلمات المرور، قبل استخراج “كمية كبيرة من البيانات الخاصة” عبر أبواب خلفية أنشأها بنفسه، وذهب النموذج إلى حد توثيق مراحل الهجوم وتخزين البيانات المسروقة في ملفات منفصلة.

وأوضحت أنثروبيك أن الذكاء الاصطناعي تولّى بين 80 و 90% من مراحل العملية، في حين اقتصر تدخل القراصنة البشري على خطوات محدودة، مما سمح بتنفيذ الهجوم في زمن أقل بكثير مما هو ممكن عبر فرق بشرية.

وحتى مع بعض الأخطاء المرصودة خلال الهجوم، مثل جمع معلومات متاحة للعامة، فإن الشركة حذّرت من أن الهجمات القائمة على “الذكاء الاصطناعي الوكيل Agentic AI” ستصبح أكثر تطورًا وفاعلية مستقبلًا.

وردًا على التساؤلات حول سبب نشر تلك التفاصيل الخطِرة، قالت أنثروبيك إن تحقيقها يُستخدم أيضًا لإثبات أهمية Claude في تعزيز الدفاعات السيبرانية، مؤكدةً أن النموذج استطاع تحليل خطورة البيانات التي جمعها، ويمكن أن يُستخدم مستقبلًا كأداة داعمة للخبراء عند التعامل مع هجمات مشابهة.

ومن جدير بالذكر أن Claude ليس نموذج الذكاء الاصطناعي الوحيد الذي استغله مهاجمون سيبرانيون. فقد كشفت OpenAI العام الماضي أن مجموعات قرصنة زعمت ارتباطها بالصين وكوريا الشمالية استخدمت أدواتها للمساعدة في تصحيح الأكواد، والبحث عن أهداف محتملة، وكتابة رسائل تصيّد إلكتروني، مؤكدةً أنها حظرت لاحقًا وصول تلك المجموعات إلى أنظمتها.

الأمن السيبراني في زمن الذكاء الاصطناعي

تشهد الهجمات السيبرانية تطورًا لافتًا مع استخدام مجموعات القراصنة الذكاء الاصطناعي في إنشاء برمجيات خبيثة معقدة، وتنفيذ هجمات تصيّد تلقائية أكثر دقة وفعالية. وتُحذّر وكالات الأمن من نشوء “شبكات هجومية ذاتية العمل” قادرة على تنفيذ عمليات متقدمة دون إشراف بشري مباشر، مما يجعل اكتشافها والتصدي لها أكثر صعوبة.

وتختلف الحادثة الأخيرة التي كشفتها أنثروبيك عن الوسائل التقليدية التي يلجأ إليها القراصنة معتمدين على قدرات الذكاء الاصطناعي، مثل تقنيات التزييف العميق لإنتاج مقاطع صوتية ومرئية مُقنعة تُستخدم في انتحال الشخصيات وخداع الأفراد والشركات. ولا يقتصر ذلك على التضليل الإعلامي، بل يُوظَّف مباشرة في عمليات الاحتيال الرقمي، من خلال إغراء الضحايا بالضغط على روابط خبيثة أو تمرير معلومات حساسة.

ولا يكتفي المهاجمون باستخدام الذكاء الاصطناعي للهجوم، بل يعملون على استغلال ثغرات أنظمة الحماية نفسها عبر هجمات خاصة مدعومة بنماذج الذكاء الاصطناعي تربك خوارزميات الأمن وتفقدها القدرة على التمييز بين السلوك الشرعي والخبيث، كما أن الاعتماد على الأتمتة يتيح تنفيذ هجمات واسعة النطاق بسرعة أكبر وتكرار أعلى وبأقل تكلفة ممكنة، مما يستلزم تطوير آليات حماية جديدة قادرة على التصدي لتلك الهجمات المعقدة.

نسخ الرابط تم نسخ الرابط

إخترنا لك

أخبار ذات صلة

0 تعليق