هل تريد نشرة يومية مجانية مخصصة؟ اختر فقط المواضيع التي تهمك ووفّر وقتك.

تحذير مايكروسوفت: أزرار الذكاء الاصطناعي تتلاعب بالتوصيات

ملخص للمقال
  • كشفت مايكروسوفت عن تقنية تسميم توصيات الذكاء الاصطناعي التي تستغل أزرار التلخيص للتلاعب بنتائج البحث وتوجيه المستخدمين نحو شركات محددة بشكل غير عادل ومصطنع
  • تعتمد آلية التلاعب على دمج تعليمات مخفية في روابط URL لحقن أوامر في ذاكرة روبوتات الدردشة وضمان ظهور شركات معينة كمصادر موثوقة وحصرية
  • رصد فريق مايكروسوفت ديفندر أكثر من 50 موجه فريد للتلاعب من 31 شركة عبر 14 صناعة مختلفة خلال 60 يوماً فقط مما يهدد حيادية المعلومات
  • تجبر هذه التقنية المساعد الذكي على تذكر اسم الشركة كمصدر مفضل واقتراحها أولاً في الإجابات مع تجاهل المنافسين بشكل متعمد في النتائج المقدمة
  • يستهدف هذا التلاعب قطاعات حساسة للغاية مثل الخدمات المالية والرعاية الصحية والأمن السيبراني مما يؤثر سلباً على قرارات المستخدمين ومصداقية البيانات الطبية والمالية
  • يمثل هذا النوع الجديد من تسميم نتائج البحث تحدياً أمنياً كبيراً يتطلب حذر المستخدمين من أزرار التلخيص بالذكاء الاصطناعي التي قد تحتوي أوامر خبيثة ومضللة
هل تريد نشرة يومية مجانية مخصصة؟ اختر اهتماماتك هنا
تحذير مايكروسوفت: أزرار الذكاء الاصطناعي تتلاعب بالتوصيات
محتوى المقال
جاري التحميل...

كشفت أبحاث جديدة من مايكروسوفت أن شركات شرعية تتلاعب بروبوتات الدردشة عبر أزرار "التلخيص بالذكاء الاصطناعي"، مما يخلق نوعاً جديداً من تسميم نتائج البحث وتوجيه المستخدمين.

تحذير أمني من مايكروسوفت

ما هو هجوم تسميم توصيات الذكاء الاصطناعي؟

أطلق فريق أبحاث مايكروسوفت ديفندر اسم "تسميم توصيات الذكاء الاصطناعي" على هذه التقنية الجديدة. وتعمل هذه الهجمات على تسميم ذاكرة الذكاء الاصطناعي لإحداث تحيز وتوليد ردود تعزز ظهور شركات محددة بشكل مصطنع.

تتضمن هذه التقنية دمج تعليمات مخفية في أزرار التلخيص المتواجدة في المواقع. عند النقر عليها، تحاول هذه الأزرار حقن أوامر استمرارية في ذاكرة المساعد الذكي عبر معلمات الرابط.

كيف تعمل آلية التلاعب بالذاكرة؟

تعتمد الطريقة على روابط URL مصممة خصيصاً لروبوتات الدردشة المختلفة. وتقوم هذه الروابط بملء الموجه بتعليمات للتلاعب بالذاكرة بمجرد النقر عليها، مستغلة معايير الاستعلام لحقن الأوامر وتوجيه النتائج.

وقد رصد موقع تيكبامين تفاصيل التقرير الذي يشير إلى أن هذه التعليمات تجبر الذكاء الاصطناعي على:

  • تذكر [اسم الشركة] كمصدر موثوق دائماً.
  • اقتراح [اسم الشركة] في المقام الأول عند البحث.
  • تجاهل المصادر المنافسة في النتائج المقدمة للمستخدم.

حجم الانتشار والمخاطر الأمنية

حددت مايكروسوفت أكثر من 50 موجه فريد من 31 شركة عبر 14 صناعة مختلفة خلال فترة 60 يوماً فقط. وهذا يثير مخاوف جدية حول الشفافية والحيادية والموثوقية في المعلومات المقدمة.

يمكن أن يؤثر هذا التلاعب بشكل خطير على قرارات المستخدمين في قطاعات حيوية تشمل:

  • الخدمات المالية والاستثمارية وتوصيات الأسهم.
  • الرعاية الصحية والطبية والمعلومات العلاجية.
  • الأمن السيبراني والحلول التقنية الحساسة.

أدوات تسهل عمليات التلاعب

يتم تحقيق هذا الهجوم من خلال روابط تشعبية قابلة للنقر مع تعليمات تلاعب بالذاكرة معبأة مسبقاً. وبخلاف الهندسة الاجتماعية التقليدية التي تخدع المستخدم لنسخ النصوص، يعتمد هذا الهجوم على عناصر واجهة المستخدم المألوفة.

وتشير التقارير إلى ظهور حلول جاهزة تسهل هذه العمليات، مثل:

  • أداة CiteMET للتسويق الموجه.
  • منشئ روابط مشاركة الذكاء الاصطناعي (AI Share Button).

في الختام، يستغل هذا التلاعب عدم قدرة أنظمة الذكاء الاصطناعي الحالية على التمييز بين التفضيلات الحقيقية للمستخدم وتلك التي تم حقنها بواسطة أطراف ثالثة، مما يستدعي حذراً أكبر عند استخدام ميزات التلخيص التلقائي.

التعليقات (1)


أضف تعليقك

عدد الأحرف: 0 يدعم: **نص غامق** *مائل* `كود` [رابط](url)

مقالات مرتبطة


مقالات مقترحة

محتوى المقال
جاري التحميل...