أمن سير العمل: الخطر الحقيقي الذي يهدد الذكاء الاصطناعي

🗓 الخميس - 15 يناير 2026، 06:50 مساءً | ⏱ 2 دقيقة | 👁 2 مشاهدة
بينما تواصل فرق الأمن السيبراني تركيزها المنصب على حماية نماذج الذكاء الاصطناعي نفسها، تشير الحوادث الأخيرة إلى أن الخطر الأكبر يكمن في مكان آخر تماماً، وهو سير العمل الذي يحيط بهذه النماذج. في تيكبامين، نرى أن التهديدات الحديثة لم تعد تستهدف الخوارزميات بحد ذاتها، بل تستغل البيئة التشغيلية التي تعمل فيها.لماذا لا يكفي تأمين نماذج الذكاء الاصطناعي وحدها؟أظهرت الهجمات الأخيرة نمطاً مقلقاً لا يعتمد على كسر تشفير النماذج أو اختراق خوارزمياتها، بل يستغل السياق الذي تعمل فيه هذه الأدوات. بدلاً من مهاجمة النموذج، يقوم المخترقون بالتلاعب بالمدخلات والمخرجات المحيطة به.أبرز الأمثلة على هذه الثغرات تشمل:اكتشاف إضافات متصفح خبيثة تسرق بيانات محادثات ChatGPT وDeepSeek من آلاف المستخدمين.استخدام تقنيات "حقن الأوامر" (Prompt Injections) في مستودعات الأكواد لخداع مساعدي البرمجة لتنفيذ برمجيات خبيثة.استغلال السياق التشغيلي للأدوات دون المساس بالنموذج الأساسي.كيف تتحول نماذج الذكاء الاصطناعي إلى محركات عمل؟لفهم حجم المخاطر، يجب النظر إلى كيفية استخدام الشركات للذكاء الاصطناعي اليوم. لم تعد هذه الأدوات مجرد روبوتات دردشة معزولة، بل أصبحت محركات أساسية تربط بين التطبيقات وتؤتمت المهام التي كانت تتم يدوياً في السابق.تتضمن سيناريوهات الاستخدام الحالية:مساعدي الكتابة الذين يسحبون مستندات سرية من SharePoint لتلخيصها في مسودات البريد الإلكتروني.روبوتات المبيعات التي تراجع سجلات العملاء (CRM) للإجابة على الاستفسارات بشكل آلي.الربط المباشر بين التطبيقات المختلفة، مما يخلق مسارات تكامل جديدة ومعقدة.هذا التحول يعني أن سطح الهجوم قد توسع ليشمل كل مدخل ومخرج ونقطة تكامل يلمسها النموذج، مما يجعل سير العمل بحد ذاته هو الهدف الجديد للمهاجمين.لماذا تفشل أنظمة الحماية التقليدية أمام هذه التهديدات؟تكمن المشكلة الرئيسية في أن معظم الضوابط الأمنية التقليدية صممت لبيئات برمجية مختلفة تماماً. كانت الأنظمة القديمة تعتمد على قواعد صارمة ومحددة (Deterministic)، وأدوار مستخدمين ثابتة، وحدود واضحة للشبكة.تحديات الأمن في عصر الذكاء الاصطناعي:الاعتماد على الاحتمالات: تعتمد نماذج الذكاء الاصطناعي على اتخاذ قرارات احتمالية وليست قواعد ثابتة، مما يجعل التنبؤ بسلوكها صعباً.غياب حدود الثقة: قد يمتثل الذكاء الاصطناعي لمدخلات خبيثة تمت صياغتها بعناية لأنه يفتقر لمفهوم "الثقة" الفطري.تعقيد التكامل: تداخل النماذج مع عمليات تجارية حقيقية يخلق نقاط ضعف لا تستطيع الجدران النارية التقليدية رصدها.في الختام، يرى خبراء تيكبامين أن الحل الأمثل لمواجهة هذه التهديدات المتطورة هو تغيير المنظور الأمني بالكامل. بدلاً من التركيز فقط على حماية النموذج، يجب التعامل مع سير العمل بأكمله ككيان واحد يحتاج إلى تحصين، بدءاً من المدخلات وصولاً إلى نقاط التكامل مع الأنظمة الأخرى.
#ذكاء اصطناعي #ChatGPT #أمن سيبراني