دارپا هوش مصنوعی قابل اعتمادتری توسعه میدهد
توسعهی هوش مصنوعی در چند سال گذشته با افتوخیزهای فراوانی همراه بوده است. امروزه از این سیستمها در خودروهای خودران و برای تشخیص بیماریها در علم پزشکی و همچنین تعداد دیگری از مواردی که مردم روزانه با آنها سروکار دارند استفاده میشود؛ با این تفاوت که انسانها برای تصمیماتی که میگیرند دلایلی دارند.
هنگامیکه در تصمیمگیریها از هوش مصنوعی استفاده میشود، دلایلی که این سیستم برای تصمیمات خود دارد در هالهای از ابهام قرار دارد که از آن بهعنوان بلک باکس نام میبرند؛ بهطوریکه حتی توسعهدهندگان هوش مصنوعی قادر به فهم این دلایل یا پیشبینی تصمیمات این سیستم نیستند. ما میدانیم که شبکهی عصبی مغز آموزش دیده است که این تصمیمات را با مراجعه به مجموعهی بزرگی از دادههای ذهنی بگیرد. هوش مصنوعی نیز روند آموزشی مشابهی را برای خود انجام میدهد؛ اما اعتماد کردن به جسمی که توانایی درک و فهم ندارد نسبتاً دشوار است.
آژانس پروژههای تحقیقاتی پیشرفتهی دفاعی امریکا (DARPA) در تلاش است تا این بلک باکس را برطرف کند و برای رسیدن به این هدف در اولین گام به پشتیبانی مالی از ۸ پروفسور علوم کامپیوتر از دانشگاه ادجون استیت به میزان ۶.۵ میلیون دلار پرداخته است.
آلِن فِرن، رئیس این پروژهی تحقیقاتی، در گفتوگوی خبری میگوید:
درنهایت ما میخواهیم که این تصمیمات عمیق شبکهای را به جملات و تصورات تبدیل کنیم تا این تصمیمات بهصورت طبیعی گرفته شود.
برنامهی دارپا و دانشگاه ادجون استیت، برای مدت ۴ سال به طول خواهد انجامید و شامل توسعهی سیستمی است که این امکان را به هوش مصنوعی میدهد تا با متخصصان یادگیری ماشین، ارتباط برقرار کند. برای توسعهی این سیستم، آنها از هوش مصنوعی در بازیهای استراتژی مانند استارکرفت استفاده میکنند. در این بازیها به هوش مصنوعی آموزش داده میشود تا به بازیکنان واقعی دلایلی را که برای تصمیمات خود گرفته است، توضیح دهد. این اولین باری نیست که هوش مصنوعی وارد دنیای بازیهای ویدیویی شده است. دیپ مایند گوگل نیز بازی استارکرفت را بهعنوان محیط آموزشی خود برای هوش مصنوعی در نظر گرفته است.
نتایج بهدستآمده از این پروژهی تحقیقاتی درنهایت در پروژههای رباتیک و وسایل نقلیهی خودران دارپا مورد استفاده قرار میگیرد. بدیهی است که استفاده از پتانسیلهای کاربردی هوش مصنوعی در مصارف نظامی باید در جهت قانون و اخلاق باشد. فرن میگوید:
هیچکسی از این فناوری نوظهور تا هنگامیکه آن را به سطح قابلاعتمادی ارتقا بدهیم، در موارد خاص استفاده نخواهد کرد و توانایی توضیح دادن تصمیمات توسط هوش مصنوعی، یکی از مهمترین راهها برای توسعهی سطحی قابلاعتماد در این سیستمها است.
خوشبختانه، این پروژه تنها پروژهی در حال اجرا برای انسانی شدن هوش مصنوعی بهمنظور اعتمادپذیری بیشتر آنها نیست.