ویدیوی جنجالی استفاده از دو کودک برای آزمایش سیستم خودران تسلا، از یوتیوب حذف شد

یک‌شنبه ۳۰ مرداد ۱۴۰۱ - ۱۲:۰۰
مطالعه 4 دقیقه
یک راننده‌ فرزندان خودش را در وسط جاده قرار داد تا ایمنی سیستم خودران تسلا را بررسی کند. این ویدئو که در شبکه‌های اجتماعی بازخورد زیادی داشت، توسط یوتیوب حذف شد.
تبلیغات

شماری از رانندگان خودروهای تسلا برای بررسی ایمنی سیستم خودران آزمایش‌هایی را طراحی کردند و ویدیوی آن را در شبکه‌های اجتماعی دردسترس قرار دادند. آن‌طور که ورج می‌نویسد، زمان کوتاهی پس از انتشار ویدئو، یوتیوب تصمیم گرفت آن را حذف کند.

در ویدیوی مورد اشاره چند راننده توانایی‌های سیستم Full Self-Driving (یا FSD) تسلا را در سناریوهای مختلف بررسی می‌کنند تا ببینند که آیا واقعاً شایعه‌های شناسایی نشدن کودکان توسط حسگرهای خودروی تسلا حقیقت دارد یا نه.

در ویدیوی بررسی سیستم خودران تسلا که با عنوان «آیا بتای Full Self-Driving تسلا واقعاً بچه‌ها را زیر می‌گیرد؟» در کانال یوتیوب Whole Mars Catalog منتشر شد، یکی از سهام‌داران و دارندگان خودروهای تسلا یعنی تد پارک را می‌بینیم که قابلیت FSD را با فرزندان خود امتحان می‌کند.

در ویدئو از خودروی تسلا مدل ۳ استفاده شد. یکی از آزمون‌ها شامل ایستادن یک کودک در وسط خیابان و دیگری شامل رد شدن کودک از خیابان بود.

تماشا در آپارات

یوتیوب در صفحه‌ی پشتیبانی خود اعلام کرده یک‌سری قوانین خاص برای محتواهایی دارد که «سلامت احساسی و فیزیکی افراد خردسال را به خطر می‌اندازد». ظاهراً این قانون شامل ویدیوهای «بدل‌کاری، جرئت‌حقیقت یا دوربین‌مخفی‌های خطرناک» می‌شود. فردی به نمایندگی از یوتیوب در گفت‌و‌گو با رسانه‌ی ورج اعلام کرد ویدیوی مورد اشاره شامل محتوای خطرناک بوده و قوانین این پلتفرم بزرگ ویدیومحور را نقض کرده است. یوتیوب می‌گوید اجازه‌ی انتشار ویدیوهایی را که در آن‌ها یک فرد خردسال در فعالیتی خطرناک شرکت می‌کند، نمی‌دهد.

تد پارک در ویدیوی حذف‌شده می‌گوید: «من بتای FSD را قبلاً امتحان کرده‌ام و کاملاً مطمئنم که قرار است فرزندانم را شناسایی کند. من کنترل خودرو را در دست دارم و هر لحظه می‌توانم ترمز بگیرم.» پارک در مصاحبه‌ با CNBC می‌گوید خودروی تسلا مدل ۳ در این آزمایش هرگز با سرعت بیش از ۱۳ کیلومتر بر ساعت حرکت نکرد و او «اطمینان حاصل کرد که خودرو بچه‌ها را شناسایی کند.»

تا تاریخ ۱۸ آگوست (۲۷ مرداد) ویدیوی موردبحث بیش از ۶۰ هزار بازدید در یوتیوب کسب کرده بود. تد پارک ویدئو را در توییتر نیز منتشر کرد و این ویدئو هنوز در توییتر قابل تماشا است. توییتر فعلاً نگفته که برنامه‌ای برای از دسترس خارج کردن ویدئو دارد یا نه.

ایده‌ی دیوانه‌وار بررسی ایمنی FSD ازطریق کودکان واقعی، به‌دنبال انتشار یک ویدیوی پربازدید مطرح شد. در آن ویدئو خودروی تسلا نتوانست مانکنی در ابعاد کودک را شناسایی کند و به همین دلیل آن را زیر گرفت. در واکنش به ویدئو طرفداران تسلا شروع‌ به بحث و جدل کردند و بارها گفتند که سیستم خودران این شرکت دقت بسیار بالایی دارد. چند روز بعد مدیر کانال یوتیوب Whole Mars Catalog گفت که قصد دارد ویدیویی با حضور کودکان واقعی بسازد تا ثابت کند که خودروهای تسلا می‌توانند کودکان را شناسایی کنند.

اداره‌ی ملی ایمنی ترافیک بزرگراه‌ها در ایالات متحده‌ی آمریکا در واکنش به ویدیوی حذف‌شده از یوتیوب بیانیه‌ای صادر کرد و نسبت‌ به استفاده از بچه‌ها برای آزمودن دقت سیستم‌های خودران هشدار داد: «هیچ‌کس نباید زندگی خود یا بقیه را برای آزمودن عملکرد فناوری رانندگی خودران به خطر بیندازد.» این آژانس دولتی می‌گوید هیچ‌کس اجازه ندارد سناریوی اختصاصی برای آزمودن فناوری خودران بسازد یا از آدم‌های واقعی به‌خصوص کودکان استفاده کند.

سیستم Full Self-Driving تسلا برخلاف نامش باعث نمی‌شود که به خودرویی کاملاً خودران دست پیدا کنید. رانندگان خودروهای تسلا می‌توانند با پرداخت ۱۲ هزار دلار اضافی (یا ماهانه ۱۹۹ دلار) به سیستم FSD که در حال گذراندن مرحله‌ی آزمایشی است دسترسی داشته باشند. تسلا تا زمانی که راننده یک نمره‌ی ایمنی خاص را دریافت نکند، اجازه‌ی فعال‌سازی FSD را به او نمی‌دهد. سیستم FSD به راننده امکان می‌دهد مقصد را تعیین کند تا خودروی تسلا بدون نیاز به دخالت راننده و با اتکا بر فناوری اتوپایلت به حرکت دربیاید. البته FSD وقتی فعال می‌شود که دستت راننده روی فرمان باشد تا اگر مشکلی پیش آمد بتواند در لحظه واکنش نشان دهد.

اوایل ماه جاری میلادی اداره‌ی وسایل نقلیه‌ی موتوری کالیفرنیا گفت که تسلا ادعاهایی نادرست درباره‌ی اتوپایلت و FSD مطرح می‌کند. این اداره ادعا کرد نحوه‌ی نام‌گذاری قابلیت‌های یادشده و توضیحات رسمی تسلا برای آن‌ها باعث می‌شود که راننده به اشتباه فکر کند که در حال استفاده از سیستمی کاملاً خودران است.

بررسی‌های اداره‌ی ملی ایمنی ترافیک بزرگراه‌ها در ایالات متحده‌ی آمریکا نشان می‌دهد سیستم اتوپایلت تسلا از ۲۰ جولای ۲۰۲۱ (۲۹ تیر ۱۴۰۰) تا ۲۱ می ۲۰۲۲ (۳۱ اردیبهشت ۱۴۰۱) در ۲۷۳ تصادف دخیل بوده است.

تبلیغات
داغ‌ترین مطالب روز

نظرات

تبلیغات