دراسة تكشف عن سلوك “خطير” في نظام القيادة الذاتية الكامل لتيسلا يتطلب تدخل الإنسان كل 21 كيلومترًا

كتبنا وتعبنا، شاركها وفرحنا


دراسة تكشف عن سلوك “خطير” في نظام القيادة الذاتية لتيسلا

كشفت دراسة حديثة أجراها مركز AMCI Testing عن وجود سلوكيات “خطيرة” في نظام القيادة الذاتية الكامل (FSD) للسيارات من شركة تيسلا، مما يتطلب تدخلًا بشريًا كل 21 كيلومترًا تقريبًا لتجنب الحوادث.

وأوضحت النتائج أن نظام القيادة الذاتية الذي يحمل الإصدارات 12.5.1 و12.5.3، قام بأكثر من 75 تصرفًا خطرًا خلال مسافة 1600 كيلومتر، حيث تم تقييم أدائه في ظروف متنوعة تشمل الشوارع الحضرية والطرقات الريفية والجبال والطرق السريعة.

رغم أن الدراسة أثنت على قدرات النظام في التعامل مع مواقف معقدة، مثل الانزلاق بين السيارات المتوقفة أو تغيير المسار لإفساح المجال للمشاة، إلا أن الباحثين حذروا من أن الاستخدام غير الحذر يمكن أن يؤدي إلى عواقب وخيمة.

وأكد غاي ماندجياميل، مدير AMCI Testing، أن “القدرة المذهلة” للنظام قد تخلق شعورًا زائفًا بالأمان بين السائقين، مما ينذر بخطر حقيقي عند غياب التركيز اللازم، إذ أن اللحظات الحرجة تحتاج إلى تدخل فوري.

ونبهت الدراسة إلى أن نظام FSD شهد حالات خطيرة، مثل محاولة اجتياز الضوء الأحمر أو الانحراف إلى المسار المقابل، وتكرار هذه الأحداث يشير إلى وجود مشكلات في ضبط النظام قد تكون مرتبطة بقوة الحوسبة أو تفسيرات البيئة المحيطة.

في الختام، برزت الحاجة الملحة لتوخي الحذر عند استخدام نظم القيادة الذاتية، حيث يمكن أن يؤدي الاستهتار والتركيز غير الكافي إلى توفير بيئة غير آمنة للسائقين والآخرين على الطريق.

تابع حسابنا على تلغرام
اشتراك
تيليغرام النادي العربي
تابع حسابنا على إكس
اشتراك
حساب النادي العربي على إكس

قد يهمك أيضا

سانت بطرسبرغ تقترح إنشاء سجل لعمال التوصيل على الدراجات الكهربائية والدراجات الهوائية

سانت بطرسبرغ تقترح إنشاء سجل لعمال التوصيل على الدراجات الكهربائية والدراجات الهوائية

إرسال مادة جديدة إلى محطة الفضاء الدولية لاختبار حماية من الحطام الفضائي

إرسال مادة جديدة إلى محطة الفضاء الدولية لاختبار حماية من الحطام الفضائي

جوجل تضيف ميزة جديدة في NotebookLM لعرض وتحليل محتوى فيديوهات يوتيوب

جوجل تضيف ميزة جديدة في NotebookLM لعرض وتحليل محتوى فيديوهات يوتيوب

أضف تعليق