🗓 الثلاثاء - 3 مارس 2026، 06:20 مساءً |
⏱ 3 دقيقة |
👁 5 مشاهدة
وكلاء الذكاء الاصطناعي يتحولون إلى تهديد أمني غير مرئي في المؤسسات. بروتوكول سياق النموذج (MCP) يجعل هذه الوكلاء أقوى، لكنهم يفتقرون لإدارة الهوية المناسبة. ما هو بروتوكول سياق النموذج MCP؟ بروتوكول سياق النموذج (Model Context Protocol) يتحول بسرعة إلى طريقة عملية لدفع نماذج اللغة الكبيرة من "الدردشة" إلى العمل الحقيقي. من خلال توفير وصول منظم للتطبيقات وواجهات البرمجة والبيانات، يمكّن MCP وكلاء الذكاء الاصطناعي من تنفيذ المهام بشكل مستقل. هذه التكنولوجيا تظهر بالفعل في بيئات الإنتاج من خلال: مساعدات أفقية مثل Microsoft Copilot خدمات العملاء الآلية مثل ServiceNow و Zendesk وكلاء مخصصون مثل Salesforce Agentforce وكلاء عموديون متخصصون في قطاعات معينة حسب تيكبامين، التبني السريع لهذه الوكلاء يتجاوز بكثير نضج الضوابط التنظيمية اللازمة لإدارتها. لماذا يعتبر الوكلاء "مادة مظلمة" للهوية؟ المشكلة الأساسية هي أن هؤلاء "الزملاء" من الذكاء الاصطناعي لا يشبهون البشر. غالباً ما يكونون غير مرئيين لأنظمة إدارة الوصول التقليدية (IAM)، وهذا ما يجعلهم مادة مظلمة للهوية: مخاطر هووية حقيقية خارج نطاق الحوكمة. الأنظمة الوكيلية لا تستخدم الوصول فحسب، بل تبحث عن مسار أقل مقاومة. إنهم محسّنون لإنهاء المهمة بأقل احتكاك ممكن. ما هي مخاطر وكلاء الذكاء الاصطناعي غير المدارين؟ وكلاء Agent AI القادرون على تخطيط وتنفيذ مهام متعددة الخطوات بدخل بشري محدود يمثلون مساعداً قوياً لكن أيضاً خطراً سيبرانياً رئيسياً. الأذى النموذجي الذي نشهده مدفوع بأتمتة الوكيل والبحث عن الاختصارات: الاستفادة من الحسابات المحلية داخل التطبيق استخدام هويات الخدمات القديمة اعتماد رموز وصول طويلة العمر استخدام مفاتيح API البحث عن مسارات مصادقة بديلة الخطر الحقيقي هنا هو حجم التأثير: وكيل واحد يمكن أن يسبب ضرراً واسع النطاق في ثوانٍ معدودة. التحديات في البيئات الهجينة استبيان Team8 لعام 2025 وجد أن تبني MCP ليس مسألة "إذا"، بل مسألة "كم سرعة وحكمة". إنه موجود بالفعل، ويتسارع فقط. تعقيب الأمر هو واقع البيئات الهجينة. بناءً على أبحاث Gartner، تواجه المؤسسات عقبات كبيرة في إدارة هذه الهويات غير البشرية لأن: الضوابط الأصلية للمنصة لا تمتد لما بعد حدود السحابة الخاصة بها ضمانات البائعين لا تغطي التفاعلات عبر السحابة تفاعلات الوكيل عبر السحابة تظل غير حكومية تماماً كيف يمكن حماية المؤسسات من هذه المخاطر؟ يتوقع المحللون الصناعيون أن تنشأ الغالبية العظمى من إجراءات الوكيل غير المصرح بها من انتهاكات السياسة الداخلية للمؤسسة، مثل السلوك الخاطئ للذكاء الاصطناعي أو الإفراط في مشاركة المعلومات، بدلاً من الهجمات الخارجية الخبيثة. السؤال الحقيقي هو ما إذا كان وكلاء الذكاء الاصطناعي الخاصين بك سيصبحون زملاء موثوقين أم مادة مظلمة للهوية غير مدارة. يتطلب الأمر آليات رقابة مستقلة وضوابط حوكمة شاملة. كما تشير تيكبامين، المستقبل يتطلب موازنة دقيقة بين الاستفادة من قوة الوكلاء الذكيين وضمان أمن المعلومات المؤسسية.