دیپ مایند در حال بررسی نحوه کنترل هوش مصنوعی است

شنبه ۱۵ مهر ۱۳۹۶ - ۲۳:۰۰
مطالعه 5 دقیقه
دیپ مایند اعلام کرده که بخش جدیدی با نام اخلاق و جامعه در داخل خود ایجاد خواهد کرد که هدف آن اطمینان از مفید بودن هوش مصنوعی برای بشریت و عدم آزار رساندن آن به انسان‎ها است.
تبلیغات

بسیاری از  شخصیت‎های مهم مانند ایلان ماسک، استفن هاوکینگ و بیل گیتس، نسبت به خطرات احتمالی هوش مصنوعی در صورت آزاد قرار دادن آن، هشدار دادند. البته کاملا مشخص است که هنوز چندین دهه تا استقلال کامل هوش مصنوعی از انسان‎ها فاصله داریم؛ اما بهتر است از هم اکنون تلاش‎هایی برای بررسی نحوه کنترل آن در آینده، صورت بگیرد و نحوه کارکرد آن و تعاملش با انسان‎ها مطالعه شود.

شاید به دفعات متعدد در فیلم‎های علمی تخیلی، آینده‎ای بدون انسان‎ها را بر روی کره زمین مشاهده کرده باشیم که توسط روبات‎ها و هوش مصنوعی کنترل‌کننده آن‌‏ها پدید آمده است. چنین دیدگاهی ممکن است بسیار افراطی به نظر برسد؛ اما در حقیقت هوش مصنوعی می‎تواند خطرات جدی را برای بشریت در پی داشته باشد. مقصر اصلی چنین پدیده‎ای ممکن است خود شبکه نباشد بلکه عاملان آن، افرادی باشند که چنین شبکه‎هایی را توسعه دادند. به طور مثال هوش مصنوعی می‎تواند از انسان‎ها تقلید کند و خصیصه‎های نامطلوبی مانند تعصب را یاد بگیرد و آن را بیشتر گسترش دهد تا به حد غیر قابل‌تحملی برسد.

یکی از نمونه‎های اخیر چنین پدیده‎ای، بات توییتر مبتنی بر هوش مصنوعی بود که توسط مایکروسافت توسعه یافته است. این بات بدون هیچ پیش‌زمینه قبلی طراحی شده بود و نمونه‎ای از یک فناوری بی‌طرف به شمار می‎رفت. اما تنها چندین ساعت زمان نیاز بود تا هوش مصنوعی کنترل‌کننده آن، به یک نژادپرست نئونازی تبدیل شود. خوشبختانه این هوش مصنوعی تنها کنترل یک بات توییتری را بر عهده داشت و وظیفه مهم‎تری مانند کنترل موشک‎های هسته ای به آن واگذار نشده بود!

AI

با وجود تمامی این مسائل قطعا نمی‎توان هوش مصنوعی را به حال خود رها کرد و انتظار داشت که تمامی فعالیت‎های آن به نفع بشریت باشد. یکی از دلایل اصلی این امر، مشارکت این شبکه در فعالیت‎هایی است که سازندگان آن هیچ وقت پیش‎بینی نکردند. به طور مثال توسعه‎دهندگان بات توییتری مایکروسافت هیچ‎ وقت تصور نمی‎کنند چنین پدیده‎ای رخ دهد یا در نگاه بدبینانه‎تر این بات را به صورتی طراحی کرده بودند که به چنین هدفی دست پیدا کند.

در سوی دیگر هوش مصنوعی می‎تواند بدون قصدی برای آسیب زدن به انسان‎ها، فعالیت‎های خود را انجام دهد. اما پس از مدتی تمرکز شبکه بر روی هدف خود به قدری بالا می‎رود که طی روش‎های مختلف مانند مصرف کردن بیش از حد منابع مورد نیاز انسان‎ها، موجب آسیب به بشریت می‎شود. این در حالی است که هوش مصنوعی از ابتدا تا انتها هم‎چنان دوست‎دار انسان‎ها باقی خواهد ماند و به صورت ناخواسته به جامعه بشری آسیب می‎زند.

کنترل کردن هوش مصنوعی

می‎توان گفت در حال حاضر دیپ مایند از نظر فناوری، پیشرفته‎ترین سازمان در زمینه هوش مصنوعی به شمار می‎رود. هم‎چنین توانسته است بزرگترین بازیکنان جهان را در بازی‎هایی که هیچکس انتظارش را نداشت، شکست دهد. در سوی دیگر ثابت شده است که هوش مصنوعی فواید بسیار کاربردی‎تر دارد و تاکنون توانسته هزینه خنک‎سازی دیتاسنترهای گوگل را تا ۴۰ درصد کاهش دهد یا بهبود چشمگیری در سیستم سلامت بیمارستان‎های انگلستان ایجاد کند.

تیم دیپ مایند اعتقاد دارند که مهم نیست هوش مصنوعی چقدر پیشرفت می‎کند؛ بلکه باید همیشه تحت کنترل انسان‎ها قرار داشته باشد. البته آینده این امر بسیار ناواضح است زیرا نمی‎توان تمامی حرکات یک شبکه را بررسی کرد. هم‎چنین اگر همیشه نیروی انسانی برای کنترل کردن هوش مصنوعی مورد نیاز باشد، هدف اصلی ساخت آن یعنی سبک کردن وظایف انسان‎ها، زیر سوال می‎رود. در نمونه‎ای دیگر می‎توان به نقش هوش مصنوعی در سیستم سلامت اشاره کرد. در حال حاضر  هوش مصنوعی می‎تواند برای بیماران نسخه تجویز کند اما نسخه‎های نوشته شده حتما باید توسط ناظر مورد تایید قرار گیرند. انتظار می‎رود در آینده دیگر نیازی به نظارت انسان‎ها نباشد و ۹۵ درصد نسخه‎های بیماران توسط هوش مصنوعی تجویز شود.

مشکل اصلی این است که نمی‎توانیم مرز مشخصی برای کنترل کردن هوش مصنوعی در نظر بگیریم و اگر چنین مرزی تصور شود قطعا با باهوش‎تر شدن شبکه، جابه‎جا خواهد شد. اگر هوش مصنوعی اشتباهی را نیز مرتکب شود، به دلیل نظارت ناکافی بر روی آن، روند جلوگیری از بروز عوارض احتمالی بسیار دیر هنگام رخ خواهد داد. در مثال بالا اگر سیستم دچار مشکل فنی شود یا هک شود، ممکن است داروهای نامناسب برای بیماران تجویز گردد و قبل از متوجه شدن افراد مسئول، توسط بیماران مورد استفاده قرار گیرد.

گروه اخلاق و جامعه دیپ مایند

برای آن که بتوانیم تاثیرات هوش مصنوعی در جهان واقعی را مشاهده کنیم، تیم دیپ مایند اقدام به پژوهش پیرامون اخلاق مورد نیاز برای هوش مصنوعی کرده است تا در آینده طبق معیارها و عرف‎های جامعه شکل بگیرد. گروه اخلاق و جامعه پنج شعار اصلی را سر لوحه فعالیت خود قرار داده است:

  • مزیت اجتماعی: دیپ مایند سعی دارد بر روی نحوه بهبود زندگی انسان توسط هوش مصنوعی تمرکز کند و این که چگونه می‎توان به کمک آن جوامعی برابرتر داشته باشیم. هم‎چنین گفته شده که سیستم قضایی در حال حاضر از هوش مصنوعی خاصی استفاده می‎کند که بر مبنای نژادپرستی توسعه داده شده است. این گروه قصد دارد با مطالعه این پدیده از بروز موارد مشابه در آینده جلوگیری کند.
  • تحقیقات بر اساس شواهد: تیم مذکور قصد دارد تا تمامی مدارک موجود را بررسی نماید و مطمئن شود که خطایی در طی این روند رخ نخواهد داد.
  • شفافیت: گروه تحقیقاتی تضمین داده است که نتایج سایر پژوهش‎ها بر روی عملکرد آن‎ها تاثیری نداشته باشد و فعالیت‎های آن‎ها به صورت کامل شفاف صورت گیرد.
  • تنوع بخشی: دیپ مایند تمایل دارد تا از جنبه‎های غیر فنی نیز پذیرای دیدگاه‎های کارشناسان باشد.
  • جامعیت: پژوهشگران تلاش خود را می‎کنند تا تمامی طیف‎های جامعه را در تحقیقات خود در نظر بگیرند زیرا در نهایت، هوش مصنوعی بر روی زندگی تمامی انسان‎ها تاثیرگذار خواهد بود.

بخش تازه شکل گرفته اخلاق و جامعه بر روی چالش‎های کلیدی مانند حفظ حریم شخصی، برابری، تاثیرات اقتصادی، مسئولیت‎پذیری، پیامد‎های غیر پیش‎بینی شده، معیارهای مورد پذیرش و ارزش‎های هوش مصنوعی تمرکز خواهد کرد. دیپ مایند امیدوار است با این پروژه به هدف اصلی خود یعنی یافتن پاسخ برای فرضیات مطرح شده پیرامون هوش مصنوعی و ایجاد شبکه‎ای مفید برای بشریت دست پیدا کند.

تبلیغات
داغ‌ترین مطالب روز

نظرات

تبلیغات