استفن هاوکینگ و ایلان ماسک در کنار ۱۰۰۰ متخصص، نامهی منع گسترش سلاحهای هوشمند روباتیک را امضا کردند
بیش از ۱۰۰۰ نفر از متخصصان در زمینهی هوش مصنوعی در جریان برگزاری کنفرانس بین المللی هوش مصنوعی در بوینس آیرس آرژانتین نامهای را به امضای خود در آوردند که طی آن از سازمان ملل متحد خواسته شده تا از توسعهی سلاحهای روباتیک هوشمند جلوگیری کند.
از جملهی افرادی که این نامه را امضا کردهاند میتوان به استفن هاوکینگ، ایلان ماسک، مدیرعامل اسپیس ایکس و تسلا، پیتر نورویگ، مدیر تحقیقات گوگل، استوارت راسل، دانشمند هوش مصنوعی در دانشگاه برکلی و اریک هورویتز، مدیر اجرایی مایکروسافت اشاره کرد.
در این نامه به این موضوع اشاره شده که توسعهی سلاحهای هوشمند که قادرند بدون دخالت انسانها اقدام به هدف گیری و شلیک به سوژههای خود نمایند، میتواند سومین انقلاب را در میدانهای جنگ شکل دهد همانگونه که پیش از این اختراع اسلحه و بمبهای اتمی چنین تحولی را در زمینه جنگ افزار صورت داده بودند.
به گفتهی این متخصصان، حتی در صورت استفادهی قانونی از سلاحهای هوشمند در میدانهای نبرد، امکان دارد که این سلاحها به کلاشینکفهای آینده تبدیل شوند. به بیان بهتر این دانشمندان پیش بینی میکنند که تروریستها با به دست آوردن این سلاحها، از آنها در خلاف صلح جهانی استفاده کنند، همانطور که امروز میتوان کلاشینکف را در دست تروریستها مشاهده کرد.
براساس اطلاعات ارائه شده توسط دانشمندان در این نامه، برای ساخت سلاحهای هوشمند همچون سلاحهای هستهای نیاز به بهرهگیری از مواد گران قیمت نیست و میتوان سلاحهای هوشمند مرگبار را با هزینهی بسیار کمتری ساخت که همین موضوع خطر گسترش استفاده از این نوع سلاحها را بیش از پیش افزایش می دهد.
راسل در این خصوص چنین اظهار نظر کرده است:
خطر دستیابی به سلاحهای هوشمند مرگبار تنها در مورد جنگهای بین کشورها مطرح نیست، بلکه مطمئنا اینگونه سلاحها در اختیار گروههای افراطی و تروریستی قرار گرفته و همچون کلاشینکوف در جنگهای داخلی و بر علیه غیرنظامیان نیز به کار گرفته خواهد شد.
راسل به این موضوع اشاره می کند که ارتشها با دستیابی به سلاحهای هوشمند فاصلهی چندان زیادی ندارند و احتمالا در آیندهی نزدیک یعنی چند سال آینده شاهد استفاده از روباتهای هوشمند در نیروهای نظامی خواهیم بود.
در حال حاضر سلاحهای نیمه هوشمند وجود دارند که با بهرهگیری از قابلیتهای هوشمند، تصمیم نهایی را در اختیار نیروی انسانی قرار میدهند. برای مثال میتوان به موشک ضد شناور لاکهید مارتین اشاره کرد که قادر است هدف خود را بصورت خودکار شناسایی کند، اما شلیک بر عهدهی نیروی انسانی است. براساس گمانههای موجود شماری از کشورها در حال حاضر از وجود موشکهایی بهره میبرند که میتوانند سوژههای نظیر کشتیها، تانکها و رادارها را بدون دخالت انسان هدف قرار داده و منهدم کنند.
این نامهی سرگشاده از جمله آخرین اخطارهایی است که دانشمندان و متخصصین در مورد خطرات و تهدیدات ناشی از بکارگیری هوش مصنوعی در موارد نظامی ارائه داده و مشکلات آتی را گوشزد میکنند.
در دسامبر ۲۰۱۴ استفن هاوکینگ اعلام کرد که توسعهی هوش مصنوعی میتواند پایان حیات انسان را سبب شود. در ژانویه سال جاری نیز بسیاری از امضاکنندگان این نامه، فراخوانی را به امضا رساندند که در آن انجام تحقیقات هوش مصنوعی مفید و کاربردی در انستیتو Future of life درخواست شده بود. این انستیتو توسط نامهای شناخته شده در زمینهی هوش مصنوعی، علوم پایه و مورگان فریمن مدیریت می شود.
در اواخر ماه ژانویه و پس از تشکیل انستیتو آیندهی حیات، ایلان ماسک ۱۰ میلیون دلار را به عنوان بودجهی مورد نیاز به این موسسه اهدا کرد. در حال حاضر این موسسه ۳۷ پروژهی تحقیقاتی را در دست دارد.
جیرید آدامز، مدیر روابط عمومی آژانس توسعهی تحقیقات پیشرفتهی دفاعی ضمن اشاره به اینکه وزارت دفاع صریحا توسعهی سلاحهای هوشمند کشنده را ممنوع اعلام کرده، چنین اظهار نظر کرد:
در حال حاضر آژانس تحقیقاتی وزارت دفاع هیچ نوع تحقیقاتی را در مورد توسعهی سلاحهای هوشمند که مستقل از انسان کار میکنند، در دست ندارد.در حال حاضر تمرکز ما روی توسعهی سیستمهای نیمه هوشمند است که فرآیند بکارگیری آنها انسان نیز دخیل است.
نظر شما در این خصوص چیست؟
نظرات