تلاش دانشمندان برای رفع پیش‌داوری و جانبداری هوش مصنوعی

پنج‌شنبه ۵ دی ۱۳۹۸ - ۱۲:۳۰
مطالعه 5 دقیقه
پژوهشگرها در حال بازنگری در مجموعه‌ی داده‌ای ImageNet هستند؛ اما آموزش ضدانحراف الگوریتمی سخت‌تر از چیزی است که به‌نظر می‌رسد.
تبلیغات

در سال‌های اخیر، کامپیوترها به‌لطف جهش‌ها و پیشرفت‌های چشمگیر هوش مصنوعی، دنیای اطراف را با وضوح بیشتری می‌بینند؛ اما ممکن است انسان با آگاهی از ذهنیت هوش مصنوعی نسبت به خود، شگفت‌زده و حتی ناامید شود. طبق آزمایش‌های جدید، بهترین سیستم بینایی هوش مصنوعی با دیدن تصویر چهره‌ی شخص ممکن است شروع به فحاشی نژادی، بیان کلیشه‌های جنسیتی یا اصطلاحاتی کند که شخصیت اصلی افراد را انکار می‌کند.

درنتیجه دانشمندان به ماشین‌ها آموزش دادند تا پیش‌داوری‌های انسانی را که ریشه در داده‌های به کار رفته دارند، از بین ببرند. چنین تغییراتی به بهبود ذهنیت عادلانه‌ی هوش مصنوعی کمک می‌کنند؛ اما تلاش‌ها نشان می‌دهند حذف انحراف از سیستم‌های هوش مصنوعی هنوز هم کار دشواری است و بخشی از این دشواری به انسان‌هایی برمی‌گردد که به این سیستم‌ها آموزش می‌دهند. الگا روساکفسکی، استادیار دانشگاه پرینستون و یکی از پژوهشگران بررسی می‌گوید: «وقتی وارد لایه‌های عمیق‌تر می‌شوید باید نکات بیشتری را در نظر بگیرید.»

خطای هوش مصنوعی

پروژه‌ی یادشده بخشی از تلاشی وسیع برای درمان سیستم‌های خودکار و رفع انحراف‌ها و پیش‌داوری‌های مخفی چنین سیستم‌هایی است. این مسئله از اهمیت بالایی برخوردار است چرا که هوش مصنوعی به سرعت در حال گسترش بوده و می‌تواند آثاری جدی را بر زندگی انسان به‌جای بگذارد. انحراف‌ در سیستم‌های تشخیص چهره، برنامه‌های استخدامی و الگوریتم‌های جستجوی وب شناسایی شده است. سیستم‌های بینایی در حوزه‌های بحرانی مانند سیاست‌گذاری تطبیق یافته‌اند زیرا انحراف سیستم‌های تجسس باعث می‌شود اقلیت‌ها به اشتباه به‌عنوان مجرم شناسایی شوند.

پروژه‌ای به‌نام ImageNet در سال ۲۰۱۲، با قرار دادن کتابخانه‌ای وسیع در اختیار توسعه‌دهندگان برای تشخیص مفاهیم بصری، نقشی کلیدی را در استفاده از پتانسیل هوش مصنوعی ایفا کرد. کتابخانه‌ی یادشده شامل انواع تصاویر از گل تا اسنوبورد بود. دانشمندان استنفورد، پرینستون و دانشگاه کارولینای شمالی با پرداخت مبلغی اندک به کارگرهای مکانیکی از آن‌ها برای برچسب‌گذاری بیش از ۱۴ میلیون تصویر استفاده کردند و در نهایت این مجموعه‌ی عظیم را به‌صورت رایگان منتشر کردند.

با ورود مجموعه‌ی یادشده به یک شبکه‌ی عصبی بزرگ، سیستم تشخیص تصویر قادر به شناسایی اشیا با دقت بسیار بالایی شد. الگوریتم از میان تعداد انبوه نمونه‌ها به شناسایی الگوهایی پرداخت که شامل مفاهیم سطح بالایی مثل پیکسل‌های تشکیل‌دهنده‌ی بافت و شکل سگ‌های کوچک بود. رقابتی برای تست الگوریتم‌های توسعه‌یافته با ImageNet آغاز شد. این رقابت نشان می‌داد بهترین الگوریتم‌های یادگیری عمیق به‌درستی و با دقت انسانی به طبقه‌بندی صحیح تصاویر می‌پردازند. موفقیت سیستم مبتنی بر ImageNet زمینه‌ساز موج جدیدی از هیجان و سرمایه‌گذاری در هوش مصنوعی و همچنین پیشرفت در حوزه‌های دیگر از جمله فناوری‌های جدید، دوربین‌های تلفن هوشمند و وسایل نقلیه‌ی خودکار شد.

از طرفی پژوهشگرهای دیگری در سال‌های اخیر، به مشکلاتی در داده‌های ImageNet پی بردند. برای مثال ممکن است الگوریتم این‌گونه آموخته باشد که برنامه‌نویس‌ها صرفا مردان سفیدپوست هستند، دلیل این تشخیص، دقت پائین تصاویر با برچسب «برنامه‌نویس» است. یکی از پروژه‌های اخیر وب به‌نام حفاری هوش مصنوعی (Excavating AI) بر پیش‌داوری در برچسب‌های افزوده شده به ImageNet تأکید می‌کند که شامل طیف گسترده‌ای از «رادیولوژیست» و «خیمه‌شب‌باز» تا فحش‌های نژادی مانند «کاکا سیاه» است. افراد از طریق وب‌سایت پروژه می‌توانند تصویر را ثبت کنند و عبارت‌های ورودی به مدل AI را مشاهده کنند که براساس مجموعه‌ی داده‌ها آموزش دیده است. دلیل وجود چنین انحرافاتی می‌تواند اشخاص اضافه‌کننده‌ی برچسب باشد. برای مثال ممکن است آن‌ها اصطلاحی نادرست را به برچسبی مثل «معلم» یا «زن» اضافه کرده باشند.

تشخیص نژاد پرستانه

تیم ImageNet برای پی‌بردن به منابع متعدد انحراف، به تحلیل داده‌های خود پرداختند و سپس گام‌هایی را برای حل آن‌ها برداشتند. آن‌ها از روش جمع‌سپاری برای شناسایی و حذف کلمات مضر استفاده کردند. همچنین به شناسایی اصطلاحاتی پرداختند که معنایی را به تصویر نسبت می‌دهند (برای مثال کلمه‌ی بشردوست) و سپس این اصطلاحات را از آموزش AI کنار گذاشتند.

تیم ImageNet همچنین به ارزیابی تنوع جغرافیایی و آماری در تصاویر پرداختند و ابزاری را برای جستجوی تصاویر متنوع‌تر توسعه دادند. برای مثال، اصطلاح «برنامه‌نویس» معمولا می‌تواند شامل تصاویر زیادی از مردان سفیدپوستی باشد که در مقابل کامپیوتر نشسته‌اند؛ اما با ابزار جدید که قرار است در ماه‌های آینده منتشر شود، زیرمجموعه‌ای از تصاویر با تنوع نژاد، جنسیتی و سنی بیشتر تولید می‌شوند و برای آموزش به الگوریتم AI به کار می‌روند.

هوش مصنوعی هنوز هم برای عملکرد صحیح نیاز به کمک انسانی دارد

درنتیجه می‌توان برای رسیدن به نتایج عادلانه‌تر، فرایند مهندسی مجدد را روی AI پیاده‌سازی کرد؛ اما باز هم AI به آموزش انسانی وابسته بوده و مسئله‌ی انحراف، اغلب اوقات چالش‌برانگیز و پیچیده است. آندری باربو، دانشمند و پژوهشگر MIT که به بررسی ImageNet پرداخته است، این تلاش را ستودنی می‌خواند اما تأکید می‌کند که تعداد تصاویر مجموعه‌ی داده‌ای بر میزان حذف انحراف تأثیر می‌گذارند، زیرا ممکن است تعداد کمی از نمونه‌ها توازن را بر هم بزنند. به‌ویژه وقتی هدف، محاسبه‌ی انواع انحراف مثل جنسیت، نژاد و سن باشد، نادیده گرفتن انحراف می‌تواند کارایی مجموعه‌ی داده‌ای را کاهش داد. باربو می‌افزاید: «ساخت مجموعه‌ی داده‌ای که فاقد انحراف‌های مشخص باشد می‌تواند به‌سرعت داده‌ها را به بخش‌های کوچکی تبدیل کند و به این ترتیب چیزی نمی‌ماند.»

روساکفسکی هم با پیچیدگی مشکل موافق است. باتوجه به ذهنیت فرهنگ‌های مختلف نسبت به دنیا، او تعریف شفافی را از مجموعه‌ی تصویر متنوع ارائه نمی‌دهد. در نهایت او معتقد است، تلاش برای افزایش عدالت هوش مصنوعی بالاخره موفق خواهد شد و می‌گوید:

من نسبت به عادلانه‌ شدن تصمیم‌گیری خودکار خوشبین هستم. انحراف زدایی انسان‌ها دشوارتر از انحراف‌زدایی سیستم‌های هوش مصنوعی است.
تبلیغات
داغ‌ترین مطالب روز

نظرات

تبلیغات