دلایل اشتباه خودروهای خودران و تصادف آن ها چیست

تصادف تسلا مدل اس در حالت رانندگی خودران که سبب فوت راننده شد، بحث‌های زیادی پیرامون این تکنولوژی به وجود آورده است. در این مقاله به بررسی ‌این موضوع می‌پردازیم که سیستم‌های هوشمند خودران، چه زمانی دچار اشتباه می‌شوند. با زومیت همراه شوید.

تبلیغات

دو تصادف اخیر مربوط به سیستم اتوپایلوت تسلا (Tesla) ممکن است سیل سوالاتی راجع به چگونگی ارزیابی و بررسی سیستم‌های کامپیوتری مبتنی بر آموزش در زمان بروز حوادث را ایجاد کنند. همانطور که می‌دانیم ماه پیش یک تصادف کشنده تسلا در فلوریدا رخ داد. در این تصادف تسلا مدل S در حالت اتوپایلوت با یک کامیون تصادف کرد و علت آن مشکل در موقعیت‌یابی سیستم اتوپایلوت بود. تسلا به رانندگان توصیه می کند تا در هنگام استفاده از سیستم اتوپایلوت به جاده توجه داشته باشند و توضیح می‌دهد که سیستم ممکن است در نور خورشید شدید دچار مشکل شود. مدیریت ملی امنیت ترافیک بزرگراه بیان کرد که یک تصادف دیگر در پنسیلوانیا (Pennsyluauia) در حال بررسی بوده است. در این تصادف یک مدل X به موانع دو طرف بزرگراه برخورد کرده و واژگون می‌شود. راننده اذعان داشته که خودرو در زمان تصادف در حالت رانندگی خودران اتوپایلوت بوده است. تسلا دقیقا نحوه کارکرد سیستم اتوپایلوت را فاش نکرده است. اما استفاده از  تکنیک های یادگیری ماشینی (machine learning techniques) برای تعلیم سیستم‌های خودکار، مخصوصا تشخیص اطلاعات تصویری، افزایش یافته است. موبایل آی (Mobile Eye) که تکنولوژی تسلا و سایر خودروسازان را تامین می‌کند، نرم‌افزاری را پیشنهاد می‌کند که از آموزش‌های عمیق برای تشخیص وسایل نقلیه، خطوط، علائم، جاده و سایر اشیاء در فیلم ویدیوئی استفاده می‌کند.

آموزش ماشینی می‌تواند راه راحت‌تری را برای برنامه‌ریزی کردن کامپیوترها برای انجام کار‌هایی که کد نویسی آن‌ها به صورت دستی بسیار مشکل است، ارائه دهد. برای مثال آموزش یک شبکه عصبی مصنوعی می‌تواند برای تشخیص سگ‌ها در عکس‌ها یا فیلم‌های ویدیوئی با دقت قابل توجهی تعلیم داده شود. وجه تلنگر برای این سیستم‌ها، فهم چگونگی کارکرد این سیستم‌های پیچیده است. شبکه عصبی مصنوعی می‌تواند برای تامین اندازه اطمینان خود در دسته‌بندی‌ طراحی شوند، اما پیچیدگی محاسبات ریاضی موجود به این معنا است که این شبکه برای فهم چگونگی تصمیم‌گیری شبکه را از هم جدا نمی‌کند. این مسئله ممکن است که باعث مشکل شدن پیش‌بینی رفتار غیر عمدی شود و اگر شکستی رخ دهد، توضیح علت آن مشکل خواهد بود. اگر یک سیستم یک شی را در عکس اشتباه تشخیص دهد، (به عنوان نمونه)، فهم اینکه کدام ویژگی عکس موجب این خطا شده است، بسیار سخت و غیر ممکن خواهد بود. چالش مشابهی در تکنیک‌های دیگر آموزش ماشین وجود دارد.

از آنجایی که این الگوریتم متداول‌تر است، رگلاتور‌های آن نیاز به در نظر گرفتن اینکه چگونه باید ارزیای شود، دارد. خودرو‌سازان آگاه‌ هستنند که افزایش پیچیدگی و خودکارسازی خودروها کار کاوش را برای رگلاتورها دشوارتر می‌کند. تویوتا بودجه یک پروژه تحقیقاتی در دانشگاه MIT که کار بررسی عملکرد وسایل نقلیه خودکار بعد از وقوع حادثه را انجام می‌دهد، تامین کرده است. این تامین بودجه توسط خودروسازان ژاپنی در چندین پروژه مرتبط با خودروهای خودران را انجام می‌شود. 

autonomous car

یادگیری عمیق (deep learning) می تواند با کنترل خودرو در پاسخ به اطلاعات سنسور، در پشت شناسایی اشیاء در تصاویر مورد استفاده قرار گیرد. تیمی در دانشگاه پرینستون (Princeton) یک سیستم رانندگی خودکار بر پایه یادگیری عمیق طراحی کرده‌اند. همچنین تحقیقات انجام  گرفته در شرکت Nvidia (شرکت تولید کننده تراشه‌) که طیفی از سخت‌افزار‌ها را برای خودروسازها تولید می‌کند، سبب تولید یک خودرو خودران بر پایه یادگیری عمیق شده است.

کارل ایگنا (Karl Iagnemma) یکی از محققان اصلی دانشگاه MIT و کاشف Nutonomy، استارتاپ کار روی تاکسی‌های خودران، معتقد است تحقق سیستم یادگیری عمیق end-to-end بسیار دشوار است. این محقق می گوید: «شما در ارتقاء دادن یک الگوریتم جعبه سیاه هستید که بر پایه مثال‌هایی از زانندگی امن آموزش داده شده است، اما خروجی آن بسیار مرموز و نامطئن است.» سیلویو ساورس (Silvio Saverse) دانشیار  متخصص بینایی ماشین (machine vision) در دانشگاه استنفورد می‌گوید: «یک مشکل آموزش ماشین مرسوم این است که فاقد توانایی انسان در نتیجه‌گیری از اشکالات مختلف اطلاعاتی است. حتی اگر یک وسیله نقلیه به طور موقت مسدود شود. ما از تعداد بی‌شماری اطلاعات متنی استفاده می‌کنیم و مکانیزم یادگیری فعای این را به خوبی اجام نمی‌دهد.»

تحقیقات تسلا از نزدیک توسط افراد و محققانی که در توسعه تکنولوژی خودرو خودران کار می‌کنند، به صورت کامل دنبال می‌شود. در هر صورت، نگرانی در مورد درک عمومی از فن‌آوری و ایمنی وجود دارد.

ایگنما نمی‌خواهد شاهد واکنش سریع تصادف باشد. او می‌گوید: «ما در لحظه‌ای هستیم که این مسئله می‌تواند فرآیند را متفوق سازد. اگر خرد جمعی گمان برد که یک تصادف یعنی خودروسازها بسیار بی‌پروا هستند، پس یک مانع بسیار بزرگ ایجاد شده است.»

منبع businessinsider

مقاله های مرتبط

  دیدگاه
کاراکتر باقی مانده