دراسة تكشف عن سلوك “خطير” في نظام القيادة الذاتية الكامل لتيسلا يتطلب تدخل الإنسان كل 21 كيلومترًا

كتبنا وتعبنا، شاركها وفرحنا


دراسة تكشف عن سلوك “خطير” في نظام القيادة الذاتية لتيسلا

كشفت دراسة حديثة أجراها مركز AMCI Testing عن وجود سلوكيات “خطيرة” في نظام القيادة الذاتية الكامل (FSD) للسيارات من شركة تيسلا، مما يتطلب تدخلًا بشريًا كل 21 كيلومترًا تقريبًا لتجنب الحوادث.

وأوضحت النتائج أن نظام القيادة الذاتية الذي يحمل الإصدارات 12.5.1 و12.5.3، قام بأكثر من 75 تصرفًا خطرًا خلال مسافة 1600 كيلومتر، حيث تم تقييم أدائه في ظروف متنوعة تشمل الشوارع الحضرية والطرقات الريفية والجبال والطرق السريعة.

رغم أن الدراسة أثنت على قدرات النظام في التعامل مع مواقف معقدة، مثل الانزلاق بين السيارات المتوقفة أو تغيير المسار لإفساح المجال للمشاة، إلا أن الباحثين حذروا من أن الاستخدام غير الحذر يمكن أن يؤدي إلى عواقب وخيمة.

وأكد غاي ماندجياميل، مدير AMCI Testing، أن “القدرة المذهلة” للنظام قد تخلق شعورًا زائفًا بالأمان بين السائقين، مما ينذر بخطر حقيقي عند غياب التركيز اللازم، إذ أن اللحظات الحرجة تحتاج إلى تدخل فوري.

ونبهت الدراسة إلى أن نظام FSD شهد حالات خطيرة، مثل محاولة اجتياز الضوء الأحمر أو الانحراف إلى المسار المقابل، وتكرار هذه الأحداث يشير إلى وجود مشكلات في ضبط النظام قد تكون مرتبطة بقوة الحوسبة أو تفسيرات البيئة المحيطة.

في الختام، برزت الحاجة الملحة لتوخي الحذر عند استخدام نظم القيادة الذاتية، حيث يمكن أن يؤدي الاستهتار والتركيز غير الكافي إلى توفير بيئة غير آمنة للسائقين والآخرين على الطريق.

تابع حسابنا على تلغرام
اشتراك
تيليغرام النادي العربي
تابع حسابنا على إكس
اشتراك
حساب النادي العربي على إكس

قد يهمك أيضا

SOFTPOINT PerfExpert يحقق توافقًا مع قاعدة البيانات الروسية Postgres Pro

SOFTPOINT PerfExpert يحقق توافقًا مع قاعدة البيانات الروسية Postgres Pro

nanoCAD BIM: الحلول الجديدة للمعماريين والمهندسين من “نانونسوفت”

nanoCAD BIM: الحلول الجديدة للمعماريين والمهندسين من “نانونسوفت”

آبل تكشف النقاب عن MacBook Pro بمعالجات سلسلة M4

آبل تكشف النقاب عن MacBook Pro بمعالجات سلسلة M4

أضف تعليق