هواپیماهای بدون سرنشین به زودی به ربات‌های قاتل تبدیل می‌شوند

جمعه ۷ اردیبهشت ۱۳۹۷ - ۲۳:۱۵
مطالعه 4 دقیقه
ارتش ایالات متحده اخیرا اعلام کرده، در حال ساخت اولین هواپیماهای بدون سرنشینی است که می‌توانند با استفاده از هوش مصنوعی، وسایل نقلیه و مردم را هدف قرار دهند.
تبلیغات

این موضوع، پیشرفت جدیدی در ساخت سلاح‌های کشنده است. در حالی که هواپیماهای بدون سرنشین فعلی همچنان توسط انسان کنترل می‌شوند، این فناوری جدید می‌تواند تقریبا بدون دخالت انسان، تصمیم به کشتن انسان‌ها بگیرد. تکمیل و عملیاتی شدن این هواپیماهای بدون سرنشین، می‌تواند پیامدهای اخلاقی و قانونی گسترده‌ای برای جامعه ی جهانی داشته باشد.

این جنگ افزارهای جدید می‌توانند در آینده در نبردهای هوایی و همچنین نابودی نیروهای دشمن به کار روند.  در عین حال، این فناوری جدید، می‌تواند حوزه‌ی جنگ را هم گسترش دهد، به طوری که شرکت‌ها، مهندسان و دانشمندانی که در حال ساخت و توسعه هوش مصنوعی هستند را هم تبدیل به اهداف نظامی کند. هواپیماهای بدون سرنشین کشنده‌ای مانند ام کیو-9 ریپر (MQ-9 Reaper)، از طریق ماهواره به وسیله‌ی اپراتورها به دقت کنترل می‌شوند.

اگر یک هواپیما بمب یا موشکی پرتاب کند، یک اپراتور به وسیله‌ی سنسورها و لیزر این موشک یا بمب را هدایت می‌کند. و در نهایت، خدمه پرواز مسئولیت اخلاقی، قانونی و عملیاتی برای کشتن اهداف تعیین شده را برعهده خواهند داشت.

چنانچه یک اپراتور هواپیمای ریپر، می‌گوید:

همیشه این ذهنیت را دارم که اجازه دهم یک شورشی حتی اگر هدف با اهمیتی باشد؛ فرار کند تا اینکه شلیک پر خطری انجام دهم که موجب مرگ غیر نظامیان شود.

حتی با کشتار توسط این هواپیماهای بدون سرنشین، احساسات، قضاوت و اخلاق انسانی، همیشه در جنگ باقی خواهد ماند. وجود ضربه‌ی روانی و اختلال استرسی پس از ضایعه روانی در میان اپراتورهای هواپیماهای بدون سرنشین نشان دهنده‌ی تاثیر روانی کشتار از راه دور است. این در واقع به استدلال احتمالی نظامی و اخلاقی رونالد آرکین، در حمایت از هواپیماهای بدون سرنشین مستقل اشاره دارد.

پرفسور آرکین، متخصص رباتیک و اخلاق رباتیک، ربات و رئیس آزمایشگاه ربات های سیار در کالج محاسبات موسسه فناوری جورجیای است. او مدعی شده است که ربات‌ها می‌توانند به طور بالقوه، به لحاظ اخلاقی در میدان نبرد نسبت به انسان‌ها بهتر عمل کنند.

 شاید اگر این هواپیماهای بدون سرنشین به طور مستقل اقدام به پرتاب بمب کنند، از وجود مشکلات روانی در میان اعضای خدمه پرواز اجتناب شود. ضعف این استدلال این است که فرد نباید مسئولیت قتل را به عهده بگیرید تا سبب ضایعه روانی در او شود. متخصصان اطلاعاتی و دیگر پرسنل نظامی مرتبا فیلم‌هایی از حملات هواپیماهای بدون سرنشین را تحلیل می‌کنند. پژوهش‌ها نشان می‌دهد که مرور تصاویری حاوی خشونت شدید، ممکن است که موجب ابتلا به برخی ضایعات روانی شود. در پژوهشی دیگری بیش از ۱۰۰ نفر از اعضای خدمه هواپیمای ریپر که با آن‌ها مصاحبه شده بود، همه روی این موضوع اتفاق نظر داشتند که در نهایت یک انسان باید ماشه را بچکاند.

آزمایش‌های مرگبار شرکت‌های اوبر و تسلا با خودروهای خودران، نشان می‌دهد که کشتار ناخواسته همچون باگ‌های کامپیوتری غیرقابل اجتناب‌اند

و با وجود هواپیماهای بدون سرنشین کاملا مستقل، اساسا فرایندهای پیچیده و تصمیمات پس از قتل‌های نظامی به کلی دگرگون می‌شود. اما مسئولیت‌های اخلاقی و قانونی اینطور نیستند که با حذف نظارت انسانی از بین بروند. در عوض، مسئولیت به طور فزاینده‌ای بر گردن دیگران، از جمله دانشمندان هوش مصنوعی می‌افتد. پیامدهای قانونی این تحولات هم اکنون هم آشکار شده‌اند. بر اساس حقوق بین‌الملل بشردوستانه، تسهیلات دو منظوره (تسهیلاتی که هم می‌توانند در برنامه‌های غیر نظامی و هم نظامی مورد استفاده قرار گیرند) می‌توانند در شرایط مناسب مورد استفاده قرار گیرند. به عنوان مثال، در سال ۱۹۹۹ و در جنگ کوزوو، پالایشگاه نفت پانچو مورد حمله قرار گرفت، زیرا می‌توانست سوخت نیروهای یوگسلاوی و هم غیرنظامیان را تامین کند.

هم اکنون هواپیماهای بدون سرنشین به وسیله اپراتورها کنترل می‌شوند و مسئولیت اخلاقی، قانونی و عملیاتی برای کشتن اهداف تعیین شده هم برعهده آن‌هاست

با یک هواپیمای بدون سرنشین مستقل، خطوط خاصی از کدهای کامپیوتری هم تقریبا به عنوان تسهیلات دو منظوره دسته‌بندی خواهند شد. شرکت‌هایی مانند گوگل، کارمندان یا سیستم‌های آن‌ها می‌توانند به یک کشور دیگر حمله کنند. به عنوان مثال، اگر پروژه هوش مصنوعی ماون (Project Maven، تشخیص خودکار چهره شخص) در یک هواپیمای مستقل نظامی مورد استفاده قرار گیرد، گوگل هم وارد کسب و کار هواپیماهای بدون سرنشین قاتل می‌شود، همانطور که ممکن است، پای هر شخص غیر نظامی دیگری (مشخصا افرادی که در زمینه‌ی هوش مصنوعی فعال هستند) هم به طور غیرمستقیم به این موضوع باز شود.

از لحاظ اخلاقی، هنوز مسائل تیره‌تری هم وجود دارد. کل ایده‌ی الگوریتم‌های خودآموز (الگوریتم‌های یادگیری ماشینی یا نرم‌افزارهایی که به طور مستقل داده‌های مختلف را برای یادگیری جمع‌آوری می‌کنند) این است که به طور مستمر در انجام هر کاری بهتر شوند. اگر یک هواپیمای بدون سرنشین باید از طریق خودآموزی در انجام وظیفه‌ای بهتر شود، شخصی باید تصمیم بگیرد که این فناوری تا چه مرحله‌ای پیشرفت کند، یعنی مسائل بیشتری را بیاموزد.

رونالد آرکین، مدعی است که ربات‌ها می‌توانند به طور بالقوه، به لحاظ اخلاقی در میدان نبرد نسبت به انسان‌ها بهتر عمل کنند

در حقیقت، در یادگیری ماشینی نظامی، رهبران سیاسی، نظامیان و مدیران شرکت‌ها هستند که تصمیم می‌گیرند، تا چه حد از تلفات غیرنظامی قابل قبول است. تجارب اخیر هوش مصنوعی مستقل باید برای جامعه هشدار دهنده باشد. آزمایش‌های مرگبار شرکت‌های اوبر و تسلا با خودروهای خودران، نشان می‌دهد که کشتار ناخواسته همچون باگ‌های کامپیوتری غیرقابل اجتناب‌اند.

اگر ماشین‌ها تعیین کنند که چه کسی بمیرد، به ویژه در مقیاس بزرگ، چیزی که در آینده شاهدش خواهیم بود، نابودی انسان‌هاست. و هر حکومت یا نیروی نظامی که چنین ماشین‌های کشتاری را به کار انداخته، هرگونه ارزش‌هایی را که مدعی دفاع از آن است را نقض می‌کند. و در همین حال، اپراتورهای هواپیماهای بدون سرنشین که بین تصمیم کشتن یا نکشتن، در کشمکش هستند، آخرین نمایندگان انسانی دخیل در جنایت نظامی غیر انسانی خواهند بود.

تبلیغات
داغ‌ترین مطالب روز

نظرات

تبلیغات