حققت تسلا إنجازاً تقنياً بتجاوز نظام القيادة الذاتية 10 مليارات ميل، وهو الحد الذي وضعه إيلون ماسك لتحقيق القيادة الذاتية الآمنة وغير المشرفة.
وفقاً لما رصده تيكبامين، فقد تجاوزت أسطول مركبات شركة تسلا التي تستخدم نظام "القيادة الذاتية الكاملة (المشرف عليها)" حاجز 10 مليارات ميل مدفوعة، وذلك وفقاً لآخر تحديث لصفحة الأمان الخاصة بالشركة. هذا الإنجاز يعني أن الشركة قد تخطت بالفعل العتبة التي حددها إيلون ماسك في وقت سابق من هذا العام للوصول إلى مرحلة القيادة الآمنة دون إشراف بشري.
ما الذي يعنيه وصول تسلا إلى 10 مليارات ميل من البيانات؟
في يناير الماضي، صرح إيلون ماسك عبر منصة X أن هناك حاجة إلى "حوالي 10 مليارات ميل من بيانات التدريب لتحقيق القيادة الذاتية الآمنة وغير الخاضعة للإشراف". وكان التلميح حينها هو أنه بمجرد وصول تسلا إلى هذا الرقم، ستقوم الشركة بتفعيل الميزة ليصبح لدى جميع عملائها فجأة نظام قيادة ذاتي بالكامل.
ومع ذلك، لم يستيقظ مالكو سيارات تسلا ليجدوا مركباتهم قد تحولت فجأة؛ حيث لا يزال نظام FSD نظاماً من المستوى الثاني (Level 2). وهذا يعني أنه يتطلب سائقاً بشرياً منتبهاً تماماً خلف عجلة القيادة لمراقبة الطريق والاستعداد لتولي السيطرة في أي لحظة.
أبرز إحصائيات الأمان التي أعلنتها تسلا:
- معدل التصادم: حادث واحد لكل 5.5 مليون ميل عند استخدام نظام القيادة الذاتية.
- المعدل البشري: حادث واحد لكل 660 ألف ميل للسائق العادي في الولايات المتحدة.
- إجمالي الأميال: تجاوز 10 مليارات ميل من بيانات التدريب الحقيقية.
هل أصبحت سيارات تسلا ذاتية القيادة بالكامل الآن؟
رغم بلوغ هذا الرقم الضخم، تظل هناك تساؤلات قانونية وتقنية كبيرة. فحتى الآن، تضع شروط خدمة تسلا المسؤولية القانونية الكاملة على عاتق المالك، نظراً لتصنيف النظام كتقنية مساعدة للسائق من المستوى الثاني. يثير هذا تساؤلاً جوهرياً: من سيتحمل المسؤولية عند تحول النظام إلى "غير مشروط"؟
على عكس شركات مثل "وايمو" (Waymo) التي تتحمل المسؤولية القانونية عن الحوادث لأنها تمتلك التكنولوجيا والأسطول، لا تزال تسلا تصر على أن نظامها يتطلب إشرافاً نشطاً. وقد أشار تقرير تيكبامين إلى أن الشركة واجهت مئات الحوادث المرتبطة بميزات القيادة الذاتية الجزئية على مر السنين، مما أدى إلى ملاحقات قضائية معقدة.
من المسؤول قانونياً عن حوادث القيادة الذاتية؟
تظل قضية المسؤولية القانونية هي العائق الأكبر أمام طموحات إيلون ماسك. ففي العام الماضي، وجدت هيئة محلفين فدرالية في فلوريدا أن شركة تسلا مسؤولة جزئياً عن حادث مميت وقع في عام 2019 تورط فيه برنامج "أوتو بايلوت" (Autopilot)، وأمرت الشركة بدفع 243 مليون دولار لعائلات الضحايا. ورغم استئناف الشركة، إلا أن القاضي رفض هذا المسعى.
تؤكد تسلا عبر موقعها الرسمي على الحقائق التالية لتجنب المسؤولية:
- النظام يتطلب إشرافاً نشطاً ومستمراً من السائق.
- البرنامج لا يجعل السيارة ذاتية القيادة بالكامل في الوقت الحالي.
- يجب أن يظل السائق مستعداً للتدخل في أي ثانية.
تحديات تواجه دقة بيانات تسلا
يشكك الخبراء منذ فترة طويلة في منهجية تسلا في تقارير الأمان. حيث يرى المحللون أن تقارير الشركة تفشل في مراعاة الحقائق الأساسية لإحصاءات المرور، مثل نوع الطرق والظروف الجوية التي يتم فيها تفعيل النظام مقارنة بالقيادة البشرية العادية.
في الختام، يمثل الوصول إلى 10 مليارات ميل إنجازاً هندسياً مذهلاً لشركة تسلا، لكن الانتقال الفعلي إلى القيادة الذاتية دون إشراف يتطلب ما هو أكثر من مجرد جمع البيانات؛ فهو يتطلب ثقة تنظيمية وقانونية لم تكتمل أركانها بعد.