تحول وكلاء الذكاء الاصطناعي بسرعة من أدوات تجريبية إلى ركائز أساسية في عمليات الأمن والهندسة وتكنولوجيا المعلومات، مما يفرض تحديات جديدة وغير مسبوقة في إدارة الصلاحيات داخل المؤسسات حسب تيكبامين.
كيف تطور دور وكلاء الذكاء الاصطناعي في المؤسسات؟
بدأت هذه التقنيات كمساعدات إنتاجية فردية مثل مساعدي البرمجة وروبوتات الدردشة، لكنها تطورت لتصبح وكلاء مشتركين على مستوى المؤسسة بالكامل. يقوم هؤلاء الوكلاء بتنسيق سير العمل عبر أنظمة متعددة، مما يتيح:
- أتمتة المهام المعقدة وتقليل الجهد اليدوي بشكل ملحوظ.
- الاستجابة السريعة للطلبات عبر الأقسام المختلفة في الشركة.
- الوصول إلى أدوات وبيانات متنوعة لضمان الكفاءة التشغيلية.
ما هي مخاطر نموذج الوصول في الذكاء الاصطناعي؟
لتقديم قيمة حقيقية، تم تصميم وكلاء الذكاء الاصطناعي لخدمة العديد من المستخدمين والأدوار في آن واحد. ولتحقيق ذلك، يتم منحهم أذونات وصول أوسع بكثير مقارنة بالمستخدمين الأفراد، مما يخلق مخاطر خفية.
يعتمد هؤلاء الوكلاء عادةً على حسابات خدمة مشتركة أو مفاتيح API للمصادقة مع الأنظمة المختلفة. وغالباً ما تتسم هذه الصلاحيات بخصائص محددة:
- طويلة الأمد: مما يسمح للوكيل بالعمل بشكل مستمر دون تدخل بشري متكرر.
- مركزية الإدارة: لتسهيل عمليات النشر والصيانة عبر المؤسسة.
- واسعة النطاق: تغطي أنظمة وبيانات أكثر مما يحتاجه أي مستخدم عادي لإنجاز مهامه.
كيف يؤدي ذلك إلى كسر نماذج الأمان التقليدية؟
يشير خبراء تيكبامين إلى أن هذا النهج يخلق وسطاء وصول أقوياء بشكل غير مقصود. عندما يتفاعل المستخدمون مع هؤلاء الوكلاء، فإنهم لا يصلون إلى الأنظمة مباشرة، بل يصدرون طلبات ينفذها الوكيل نيابة عنهم.
تجاوز الصلاحيات الفردية
تتم هذه الإجراءات تحت هوية الوكيل وصلاحياته الواسعة، وليس هوية المستخدم المحدودة، مما يؤدي إلى مشاكل جوهرية في الأمان:
- تجاوز حدود الأذونات التقليدية الممنوحة للمستخدمين.
- صعوبة تتبع من قام بالوصول الفعلي للبيانات بدقة.
- خلق مسارات جديدة ومخفية لتصعيد الامتيازات داخل الشبكة.
في حين تركز المؤسسات على السرعة والأتمتة التي يوفرها الذكاء الاصطناعي، فإنها قد تغفل عن المخاطر الأمنية الجديدة التي يتم إدخالها عبر هذه الصلاحيات الواسعة، مما يستوجب إعادة النظر في استراتيجيات الأمان المتبعة.