الذكاء الاصطناعي: ثغرات أمنية تسرب 23 مليون سر في 2024
🗓 الاثنين - 29 ديسمبر 2025، 12:50 مساءً |
⏱ 3 دقيقة |
👁 21 مشاهدة
في ديسمبر 2024، تعرضت مكتبة Ultralytics للذكاء الاصطناعي للاختراق، حيث تم تثبيت أكواد خبيثة استغلت موارد الأنظمة لتعدين العملات الرقمية. والنتيجة المفزعة: تسريب 23.77 مليون سر أمني عبر أنظمة الذكاء الاصطناعي في 2024 فقط، بزيادة 25% عن العام السابق. لماذا فشلت أطر الأمان التقليدية في حماية أنظمة الذكاء الاصطناعي؟ المفاجأة أن المؤسسات المخترقة كانت تمتلك برامج أمنية شاملة، واجتازت التدقيقات الأمنية، واستوفت متطلبات الامتثال. لكن أطر الأمان التقليدية ببساطة لم تُبنَ للتعامل مع تهديدات الذكاء الاصطناعي. في أغسطس 2025، تسببت حزم Nx الخبيثة في تسريب 2,349 بيانات اعتماد من GitHub والخدمات السحابية وأنظمة الذكاء الاصطناعي. وطوال 2024، سمحت ثغرات ChatGPT باستخراج بيانات المستخدمين من ذاكرة الذكاء الاصطناعي دون تصريح. ما الفجوة بين أطر NIST وISO 27001 وتهديدات الذكاء الاصطناعي؟ الأطر الأمنية الرئيسية التي تعتمد عليها المؤسسات، مثل NIST Cybersecurity Framework وISO 27001 وCIS Controls، طُورت عندما كان المشهد الأمني مختلفاً تماماً. NIST CSF 2.0 (صدر 2024): يركز على حماية الأصول التقليدية ISO 27001:2022: يغطي أمن المعلومات لكن لا يراعي ثغرات الذكاء الاصطناعي CIS Controls v8: يشمل أمن نقاط النهاية لكن دون إرشادات لهجمات AI يشير روب ويتشر، المؤسس المشارك لشركة Destination Certification للتدريب الأمني: "المتخصصون يواجهون مشهد تهديدات تطور أسرع من الأطر المصممة للحماية منه. الضوابط التي تعتمدها المؤسسات لم تُبنَ مع مراعاة هجمات الذكاء الاصطناعي." كيف تخترق هجمات Prompt Injection الأنظمة دون مراقبة؟ ضوابط التحكم في الوصول موجودة في كل إطار أمني رئيسي، لكنها لا تعالج هجمات حقن الأوامر (Prompt Injection) التي تتلاعب بسلوك الذكاء الاصطناعي عبر مدخلات لغوية مصممة بعناية، متجاوزة المصادقة تماماً. ضوابط سلامة الأنظمة تركز على كشف البرمجيات الخبيثة ومنع تنفيذ الأكواد غير المصرح بها. لكن تسميم النماذج (Model Poisoning) يحدث خلال عملية التدريب المصرح بها. المهاجم لا يحتاج لاختراق النظام، بل يتلاعب بالبيانات التدريبية. ما الحل الذي تقترحه تيكبامين لسد الفجوة الأمنية؟ المشكلة ليست في جودة الأطر التقليدية، بل في أن الذكاء الاصطناعي يقدم سطوح هجوم لا تتطابق مع عائلات الضوابط الموجودة. وفقاً لتيكبامين، هذه الفجوة دفعت الطلب على شهادات أمن الذكاء الاصطناعي المتخصصة التي تعالج هذه التهديدات الناشئة تحديداً. الخطوة الأولى: الاعتراف بأن أنظمة الذكاء الاصطناعي تعمل بشكل مختلف جوهرياً عن التطبيقات التقليدية. والهجمات ضدها لا تنطبق على فئات الضوابط القائمة. فرق الأمان اتبعت الأطر، لكن الأطر ببساطة لا تغطي هذا المجال. التوصيات الأمنية العاجلة تطوير ضوابط أمنية مخصصة لأنظمة الذكاء الاصطناعي تدريب فرق الأمان على هجمات Prompt Injection وModel Poisoning مراجعة سلاسل التوريد للمكتبات والنماذج المستخدمة تطبيق مراقبة مستمرة لسلوك النماذج التعليمية مع تسارع اعتماد الذكاء الاصطناعي في المؤسسات، لم يعد الاعتماد على الأطر التقليدية وحدها خياراً آمناً. الحاجة ماسة لتطوير معايير أمنية جديدة تواكب تطور التهديدات.