هل تريد نشرة يومية مجانية مخصصة؟ اختر فقط المواضيع التي تهمك ووفّر وقتك.

موظفو جوجل وأوبن إي آي يدعمون أنثروبيك ضد البنتاغون

ملخص للمقال
  • قدم حوالي 40 خبيرا من جوجل وأوبن إي آي بقيادة جيف دين مذكرة قانونية لدعم شركة أنثروبيك في دعواها القضائية ضد البنتاغون
  • يرفض موظفو جوجل وأوبن إي آي بشدة تصنيف وزارة الدفاع الأمريكية لشركة أنثروبيك كخطر أمني يهدد سلسلة التوريد معتبرين ذلك إجراء انتقاميا يضر بالتكنولوجيا
  • جاء التصنيف الدراماتيكي بعد تمسك أنثروبيك المنتجة لنموذج الذكاء الاصطناعي كلود بمبادئها الرافضة لاستخدام تقنياتها المتطورة في التطبيقات العسكرية وعمليات المراقبة الجماعية
  • حذر نخبة من مهندسي وعلماء الذكاء الاصطناعي من أن أنظمة الأسلحة الفتاكة المستقلة بالكامل تشكل مخاطر جسيمة تتطلب التنظيم الفوري وتجنب اتخاذ قرارات هجومية مميتة
  • يعد تصنيف أنثروبيك كخطر أمني إجراء نادرا جدا للشركات الأمريكية حيث يستخدم البنتاغون هذا التصنيف عادة ضد الشركات الأجنبية التي تشكل تهديدا استراتيجيا للأمن القومي
  • أكدت المذكرة القانونية الداعمة لمسار أنثروبيك القضائي أن استخدام الذكاء الاصطناعي في المراقبة المحلية الجماعية للمدنيين داخل البلاد يهدد النظم الديمقراطية بشكل صريح ومباشر
هل تريد نشرة يومية مجانية مخصصة؟ اختر اهتماماتك هنا
موظفو جوجل وأوبن إي آي يدعمون أنثروبيك ضد البنتاغون
محتوى المقال
جاري التحميل...

في خطوة مفاجئة، أعلن العشرات من خبراء جوجل وأوبن إي آي دعمهم لشركة أنثروبيك في دعواها ضد البنتاغون، رافضين تصنيفها كخطر أمني.

قدم حوالي 40 موظفاً من شركتي جوجل (Google) وأوبن إي آي (OpenAI)، وعلى رأسهم جيف دين، كبير علماء جوجل وقائد تطوير نموذج جيميناي، مذكرة قانونية لدعم مسار أنثروبيك القضائي. وجاءت هذه الخطوة السريعة بعد ساعات قليلة من إعلان الشركة رفع دعوى ضد وزارة الدفاع الأمريكية.

تفاصيل دعم الخبراء في قضية أنثروبيك

عبر الخبراء الموقعون على المذكرة عن قلقهم البالغ إزاء قرار الإدارة الأمريكية وتأثيراته السلبية. وأكدت المجموعة، التي تضم نخبة من المهندسين وعلماء الذكاء الاصطناعي، أنهم يتدخلون بصفاتهم الشخصية كمهنيين يدركون قدرات هذه الأنظمة ومخاطرها الحقيقية.

أهداف المذكرة القانونية

  • اعتبار تصنيف أنثروبيك كخطر على سلسلة التوريد إجراءً انتقامياً يضر بالمصلحة العامة وتطور التكنولوجيا.
  • التأكيد على أن المراقبة المحلية الجماعية المعتمدة على الذكاء الاصطناعي تهدد النظم الديمقراطية بشكل صريح.
  • التنبيه إلى أن أنظمة الأسلحة الفتاكة والمستقلة تشكل مخاطر جسيمة يجب تنظيمها فوراً.

لماذا تم تصنيف أنثروبيك كخطر أمني؟

حسب متابعة تيكبامين، صدر هذا التصنيف الدراماتيكي بعد أن تمسكت الشركة المنتجة لنموذج (Claude) بمبادئها المتعلقة باستخدام تقنياتها في المجالات العسكرية. ويُعد هذا التصنيف نادراً للشركات الأمريكية، إذ يُستخدم عادة ضد الشركات الأجنبية التي تشكل تهديداً استراتيجياً للأمن القومي.

الخطوط الحمراء غير القابلة للتفاوض

رفضت الشركة بشكل قاطع السماح باستخدام نماذجها في تطبيقين رئيسيين:

  • عمليات المراقبة الجماعية للمدنيين داخل البلاد.
  • تطوير أسلحة مستقلة بالكامل تتخذ قرارات هجومية مميتة دون إشراف بشري مباشر.

ما هي تداعيات أزمة أنثروبيك والبنتاغون؟

أدى رفض الشركة لهذه الاستخدامات إلى انهيار المفاوضات مع الجيش الأمريكي وتصاعد التوترات العلنية، مما فتح الباب أمام شركات ذكاء اصطناعي منافسة للتدخل وتوقيع عقود عسكرية تسمح بأي استخدام قانوني لتقنياتها. ولا يقتصر تأثير التصنيف على منع الشركة من العقود المباشرة فحسب.

يضع هذا القرار أي شركة متعاقدة مع البنتاغون في القائمة السوداء إذا كانت تستخدم منتجات أنثروبيك في عملياتها. هذا الوضع الصارم يجبر العديد من الشركاء على التخلي عن تقنيات (Claude) فوراً للحفاظ على عقودهم الحكومية المربحة.

الاستخدامات العسكرية السابقة لنموذج كلود

كانت أدوات الشركة مدمجة بشكل عميق في العمليات العسكرية، حيث يُعد نموذجها الأول الذي تم التصريح باستخدامه في العمليات الاستخباراتية السرية. وتشير التقارير إلى أن الجيش الأمريكي اعتمد على هذه التقنيات في حملات عسكرية حساسة، بما في ذلك العملية التي استهدفت المرشد الإيراني علي خامنئي، وذلك قبل ساعات فقط من إعلان وزير الدفاع قرار التصنيف الجديد.

في الختام، تسلط قضية أنثروبيك الضوء على الفجوة الكبيرة بين وتيرة نشر أنظمة الذكاء الاصطناعي وتطور الأطر القانونية والأخلاقية المصممة لحوكمتها. وكما يوضح تقرير تيكبامين، فإن هذه المواجهة المعقدة قد ترسم ملامح جديدة لمستقبل العلاقة بين شركات وادي السيليكون والمؤسسات العسكرية.

التعليقات (1)


أضف تعليقك

عدد الأحرف: 0 يدعم: **نص غامق** *مائل* `كود` [رابط](url)

مقالات مرتبطة

الكلمات المفتاحية:

#أنثروبيك #جوجل #أوبن إي آي

مقالات مقترحة

محتوى المقال
جاري التحميل...