استفن هاوکینگ و ایلان ماسک در کنار ۱۰۰۰ متخصص، نامه‌ی منع گسترش سلاح‌های هوشمند روباتیک را امضا کردند

استفن هاوکینگ و ایلان ماسک در کنار ۱۰۰۰ متخصص، نامه‌ی منع گسترش سلاح‌های هوشمند روباتیک را امضا کردند

بیش از ۱۰۰۰ نفر از متخصصان در زمینه‌ی هوش مصنوعی نامه‌های را امضا کرده‌اند که در آن از سازمان ملل درخواست شده تا از توسعه‌ی سلاح‌های روباتیک هوشمند جلوگیری کند. با زومیت همراه باشید.

بیش از ۱۰۰۰ نفر از متخصصان در زمینه‌ی هوش مصنوعی در جریان برگزاری کنفرانس بین المللی هوش مصنوعی در بوینس آیرس آرژانتین نامه‌ای را به امضای خود در آوردند که طی آن از سازمان ملل متحد خواسته شده تا از توسعه‌ی سلاح‌های روباتیک هوشمند جلوگیری کند.

از جمله‌ی افرادی که این نامه را امضا کرده‌اند می‌توان به استفن هاوکینگ، ایلان ماسک، مدیرعامل اسپیس ایکس و تسلا، پیتر نورویگ، مدیر تحقیقات گوگل، استوارت راسل، دانشمند هوش مصنوعی در دانشگاه برکلی و اریک هورویتز، مدیر اجرایی مایکروسافت اشاره کرد.

در این نامه به این موضوع اشاره شده که توسعه‌ی سلاح‌های هوشمند که قادرند بدون دخالت انسان‌ها اقدام به هدف گیری و شلیک به سوژه‌های خود نمایند، می‌تواند سومین انقلاب را در میدان‌های جنگ شکل دهد همانگونه که پیش از این اختراع اسلحه و بمب‌های اتمی چنین تحولی را در زمینه جنگ افزار صورت داده بودند.

به گفته‌ی این متخصصان، حتی در صورت استفاده‌ی قانونی از سلاح‌های هوشمند در میدان‌های نبرد، امکان دارد که این سلاح‌ها به کلاشینکف‌های آینده تبدیل شوند. به بیان بهتر این دانشمندان پیش بینی می‌کنند که تروریست‌ها با به دست آوردن این سلاح‌ها، از آن‌ها در خلاف صلح جهانی استفاده کنند، همانطور که امروز می‌توان کلاشینکف را در دست تروریست‌ها مشاهده کرد.

براساس اطلاعات ارائه شده توسط دانشمندان در این نامه، برای ساخت سلاح‌های هوشمند همچون سلاح‌های هسته‌ای نیاز به بهره‌گیری از مواد گران قیمت نیست و می‌توان سلاح‌های هوشمند مرگبار را با هزینه‌ی بسیار کمتری ساخت که همین موضوع خطر گسترش استفاده از این نوع سلاح‌ها را بیش از پیش افزایش می دهد.

راسل در این خصوص چنین اظهار نظر کرده است:

خطر دستیابی به سلاح‌های هوشمند مرگبار تنها در مورد جنگ‌های بین کشورها مطرح نیست، بلکه مطمئنا اینگونه سلاح‌ها در اختیار گروه‌های افراطی و تروریستی قرار گرفته و همچون کلاشینکوف در جنگ‌های داخلی و بر علیه غیرنظامیان نیز به کار گرفته خواهد شد.

راسل به این موضوع اشاره می کند که ارتش‌ها با دستیابی به سلاح‌های هوشمند فاصله‌ی چندان زیادی ندارند و احتمالا در آینده‌ی نزدیک یعنی چند سال آینده شاهد استفاده از روبات‌های هوشمند در نیروهای نظامی خواهیم بود.

در حال حاضر سلاح‌های نیمه هوشمند وجود دارند که با بهره‌گیری از قابلیت‌های هوشمند، تصمیم نهایی را در اختیار نیروی انسانی قرار می‌دهند. برای مثال می‌توان به موشک ضد شناور لاکهید مارتین اشاره کرد که قادر است هدف خود را بصورت خودکار شناسایی کند، اما شلیک بر عهده‌ی نیروی انسانی است. براساس گمانه‌های موجود شماری از کشورها در حال حاضر از وجود موشک‌هایی بهره می‌برند که می‌توانند سوژه‌های نظیر کشتی‌ها، تانک‌ها و رادارها را بدون دخالت انسان هدف قرار داده و منهدم کنند.

این نامه‌ی سرگشاده‌ از جمله آخرین اخطارهایی است که دانشمندان و متخصصین در مورد خطرات و تهدیدات ناشی از بکارگیری هوش مصنوعی در موارد نظامی ارائه داده و مشکلات آتی را گوشزد می‌کنند.

در دسامبر ۲۰۱۴ استفن هاوکینگ اعلام کرد که توسعه‌ی هوش مصنوعی می‌تواند پایان حیات انسان را سبب شود. در ژانویه سال جاری نیز بسیاری از امضاکنندگان این نامه، فراخوانی را به امضا رساندند که در آن انجام تحقیقات هوش مصنوعی مفید و کاربردی در انستیتو Future of life درخواست شده بود. این انستیتو توسط نام‌های شناخته شده در زمینه‌ی هوش مصنوعی، علوم پایه و مورگان فریمن مدیریت می شود.

در اواخر ماه ژانویه و پس از تشکیل انستیتو آینده‌ی حیات، ایلان ماسک ۱۰ میلیون دلار را به عنوان بودجه‌ی مورد نیاز به این موسسه‌ اهدا کرد. در حال حاضر این موسسه ۳۷ پروژه‌ی تحقیقاتی را در دست دارد.

جیرید آدامز، مدیر روابط عمومی آژانس توسعه‌ی تحقیقات پیشرفته‌‌ی دفاعی ضمن اشاره به اینکه وزارت دفاع صریحا توسعه‌ی سلاح‌های هوشمند کشنده را ممنوع اعلام کرده، چنین اظهار نظر کرد:

در حال حاضر آژانس تحقیقاتی وزارت دفاع هیچ نوع تحقیقاتی را در مورد توسعه‌ی سلاح‌های هوشمند که مستقل از انسان کار می‌کنند، در دست ندارد.در حال حاضر تمرکز ما روی توسعه‌ی سیستم‌های نیمه هوشمند است که فرآیند بکارگیری آن‌ها انسان‌ نیز دخیل است.

 نظر شما در این خصوص چیست؟


از سراسر وب

  دیدگاه
کاراکتر باقی مانده

بیشتر بخوانید