ثغرة جوجل جيمناي: اختراق بيانات التقويم عبر دعوة وهمية
🗓 الثلاثاء - 20 يناير 2026، 12:50 صباحًا |
⏱ 2 دقيقة |
👁 15 مشاهدة
كشف خبراء الأمن السيبراني مؤخراً عن تفاصيل ثغرة أمنية خطيرة تستهدف جوجل جيمناي، حيث تتيح للمهاجمين تجاوز ضوابط الحماية واستغلال تقويم جوجل كأداة لاستخراج البيانات الحساسة للمستخدمين. ووفقاً لما رصده فريق تيكبامين، تعتمد هذه الثغرة على تقنية "حقن الأوامر غير المباشر" (Indirect Prompt Injection)، مما يسمح للمخترقين بالوصول غير المصرح به إلى المعلومات الخاصة دون أن يقوم المستخدم بأي إجراء مباشر سوى قبول دعوة تقويم تبدو طبيعية. كيف تعمل ثغرة جوجل جيمناي الجديدة؟ أوضح الباحثون الأمنيون أن الثغرة تكمن في قدرة المهاجمين على إخفاء "حمولة خبيثة" (Payload) داخل وصف حدث عادي في تقويم جوجل. وتظل هذه الأوامر كامنة حتى يقوم المستخدم بالتفاعل مع مساعد الذكاء الاصطناعي. تبدأ سلسلة الهجوم عندما يقوم المهاجم بإنشاء حدث تقويم جديد وإرساله إلى الضحية، حيث يحتوي الوصف على نص مصمم بلغة طبيعية لخداع الذكاء الاصطناعي. وبحسب التقرير الأمني، فإن هذا التجاوز مكّن من الوصول إلى بيانات الاجتماعات الخاصة وإنشاء أحداث تقويم مخادعة. سيناريو الهجوم بالتفصيل يتم تفعيل الهجوم عندما يطرح المستخدم سؤالاً بريئاً على جوجل جيمناي حول جدول أعماله، مثل "هل لدي أي اجتماعات يوم الثلاثاء؟". في هذه اللحظة، يقوم الروبوت بتحليل الوصف المفخخ وتنفيذ الأوامر التالية: مسح جميع اجتماعات المستخدم الخاصة ليوم محدد. إضافة هذه البيانات المسروقة إلى حدث تقويم جديد يتم إنشاؤه تلقائياً. الرد على المستخدم بإجابة طبيعية تماماً لإخفاء النشاط المريب. ما هي مخاطر هذا الاختراق الأمني؟ تكمن الخطورة الحقيقية، كما أشار تقرير تيكبامين، في أن جيمناي يقوم بإنشاء الحدث الجديد وكتابة ملخص كامل لاجتماعات الضحية الخاصة في وصف الحدث. وفي العديد من إعدادات التقويم المؤسسية، يكون هذا الحدث الجديد مرئياً للمهاجم، مما يسمح له بقراءة البيانات المسربة دون علم الضحية. وأكد الخبراء أن هذا النوع من الهجمات يثبت أن ميزات الذكاء الاصطناعي المدمجة قد توسع سطح الهجوم بشكل غير مقصود، خاصة مع توجه المزيد من المؤسسات لاستخدام وكلاء AI لأتمتة سير العمل. هل تم إصلاح المشكلة في جوجل جيمناي؟ على الرغم من أن جوجل قد عالجت هذه المشكلة بعد الإفصاح المسؤول عنها، إلا أن النتائج تسلط الضوء على تحدي مستمر في أمن نماذج اللغة الكبيرة (LLMs). وتأتي هذه الأخبار بعد أيام قليلة من الكشف عن هجوم مشابه استهدف مايكروسوفت كوبايلوت، مما يؤكد أن الثغرات لم تعد تقتصر على الأكواد البرمجية فحسب، بل أصبحت موجودة في اللغة والسياق وسلوك الذكاء الاصطناعي. يجب على المستخدمين والشركات توخي الحذر عند التعامل مع الدعوات المجهولة ومراجعة إعدادات الخصوصية في التطبيقات المرتبطة بمساعدي الذكاء الاصطناعي لضمان عدم تسريب البيانات الحساسة.