آیا می‌‌توان هوش مصنوعی را به رفتار منصفانه با مردم وادار کرد؟

یک‌شنبه ۱۰ آذر ۱۳۹۸ - ۱۳:۵۰
مطالعه 3 دقیقه
پژوهشگران از ابداع چهارچوبی تازه سخن می‌‌گویند که با کمک آن می‌‌توان بسیاری از مسائل موجود در حوزه‌‌ی سوگیری و تعصب غیرعمدی را در یادگیری ماشین برطرف کرد.
تبلیغات

این روزها به‌‌نظر می‌‌رسد هوش مصنوعی تقریبا از پس انجام هرکاری برمی‌‌آید. این ابزار می‌تواند جهان ما را شبیه‌‌سازی کند و مکعب روبیک را با یک دست حل کند و حتی ارواح پنهان در ژنوم اجداد پیشین ما را نیز کشف و شناسایی کند.

البته ادعا می‌‌شود تمامی این پیشرفت‌‌ها برای منافع بشر شکل می‌‌گیرند؛ ولی آیا ممکن است این ادعا صحت نداشته باشد؟ در سال‌‌های اخیر، شاهد آن بوده‌‌ایم که بسیاری از سیستم‌‌های الگوریتمی که با آن‌‌ها سروکار داشته‌‌ایم، درمعرض خطرهایی نظیر سوگیری‌‌های عمدی و غیرعمدی بوده‌‌اند. این سیستم‌‌ها پیش‌تر در پیش‌‌بینی وقوع جرم با مشکلاتی مانند تبعیض نژادی مواجه شده‌‌اند و حتی در اعتباردهی مشتریان متفاوت با جنسیت مرد یا زن نیز با اتهامات بحث‌‌برانگیزی دست‌به‌گریبان بوده‌‌اند.

حال پرسش اینجا است که چگونه دانشمندان تضمین می‌دهند چنین سیستم‌‌هایی در آینده می‌‌توانند با «عدالت» رفتار کنند یا مهم‌‌تر اینکه «ایمن» باشند؟

پژوهشگران دانشگاه ماساچوست به‌‌تازگی مطالعه‌‌ی انجام داده‌‌اند که گویا می‌‌تواند پاسخی برای پرسش یادشده ارائه کند. آن‌‌ها چهارچوبی تعریف کرده‌‌اند که می‌‌تواند از بروز رفتارهایی از ماشین‌‌ها جلوگیری کند که به‌‌زعم آن‌‌ها «رفتارهای نامطلوب» به‌‌شمار می‌‌آید. فیلیپ توماس، پژوهشگر یادگیری ماشین می‌گوید:

وقتی الگوریتم یادگیری ماشین به‌‌کار گرفته می‌‌شود، کنترل رفتار آن دشوار خواهد بود. ازآنجاکه تأثیر الگوریتم‌‌های ماشینی روی زندگی ما همواره بیش‌‌تر‌و‌بیش‌‌تر می‌شود، بسیار مهم است که بتوانیم از تضمین انصاف و اجتناب از هرگونه آسیب این سیستم‌ها مطمئن شویم.
سوگیری هوش مصنوعی

درواقع، چهارچوب یادشده که پژوهشگران به‌‌کمک آن توانسته‌‌اند انواع جدیدی از الگوریتم‌‌های یادگیری ماشین را توسعه‌‌ دهند، درک ذاتی از مفاهیمی مانند اخلاق و انصاف را به هوش مصنوعی تزریق نمی‌‌کند؛ بلکه تنها به پژوهشگران کمک می‌‌کند خود رفتارهای نامطلوب سیستم را حین طراحی هسته‌‌های الگوریتم تعریف و تدوین کنند.

در هسته‌ی این سیستم جدید، الگوریتم‌‌هایی حضور دارند که با نام الگوریتم‌‌های سلدونین (Seldonian) شناخته می‌‌شوند؛ نامی که برگرفته از یکی از شخصیت‌‌های اصلی سری رمان‌‌های علمی‌تخیلی معروف «بنیاد» اثر آیزاک آسیموف است. این الگوریتم‌‌ها تنها برای آن طراحی نشده‌‌اند که از اخلاقی‌‌بودن عملیات ماشین مطمئن شوند؛ بلکه با آن‌‌ها می‌‌توان هرگونه رفتاری حتی مشتمل‌‌بر جوانب پیچیده‌‌ی ایمنی سیستم‌‌های پزشکی را نیز کنترل کرد. توماس ادامه می‌‌دهد:

اگر مثلا در حال استفاده از الگوریتم سلدونین در درمان دیابت باشم، می‌‌توانم رفتار نامطلوب را به‌‌صورت سطح پایین قندخون یا هیپوگلیسمی تعریف کنم و به ماشین بگویم که «وقتی در حال بهبود کنترلگر در پمپ انسولین هستی، تغییراتی انجام نده که موجب افزایش دفعات رخداد هیپوگلیسمی شود». بیشتر الگوریتم‌‌ها راهکاری برای اعمال چنین محدودیت‌‌هایی در رفتار ماشین ارائه نمی‌‌کنند و در طراحی‌های پیشین چنین امکانی لحاظ نشده بود.

در بخشی از مطالعات، پژوهشگران توانستند عملا از این الگوریتم سلدونین برای کنترل پمپ انسولین خودکار استفاده کنند. با این روش، آن‌‌ها موفق شدند راهکاری میان‌‌بر برای تعیین میزان دُز انسولین قابل‌تزریق به فرد را براساس داده‌‌های اندازه‌‌گیری گلوکوز خون همان فرد بیابند. همچنین در آزمایشی دیگر، آن‌‌ها الگوریتمی توسعه دادند که می‌توانست متوسط نمره‌‌ی عملکرد دانش‌‌آموزان را بدون هرگونه تبغیض جنسیتی پیش‌‌بینی کند؛ مسئله‌ای که بسیاری از الگوریتم‌‌های پیشین را به‌‌‌دلیل همین مسئله به‌دردسر انداخته بود.

پژوهشگران تأکید می‌کنند این آزمایش‌‌ها فقط مدرکی برای اثبات توانمندی‌‌های الگوریتم‌‌های سلدونین به‌‌شمار می‌‌آیند و تمرکز اصلی کار همچنان معطوف به توسعه‌ی خود چهارچوب است؛ چهارچوبی که دانشمندان دیگر هم بتوانند از آن برای ساخت سیستم‌‌های هوش مصنوعی در آینده بهره ببرند. توماس می‌‌افزاید:

مقاله‌های مرتبط:سوگیری عمدی در هوش مصنوعی چگونه به ما آسیب می‌رساندجایگاه اخلاق در هوش مصنوعی چیست؟خطرات کنونی هوش مصنوعی و راه‌های مقابله با آنمعتقدیم هنوز جای زیادی برای بهبود در این عرصه وجود دارد. با اینکه الگوریتم‌‌های ما از مؤلفه‌‌های ساده‌‌ای تشکیل شده بود، نتایج به‌‌دست‌آمده بسیار تأثیرگذار بودند. امیدواریم پژوهشگران حوزه‌ی یادگیری ماشین با استفاده از چهارچوب ما بتوانند الگوریتم‌‌های جدیدتر و پیچیده‌‌تری خلق کنند؛ الگوریتم‌‌هایی که بتوانند به‌‌شکلی مسئولانه برای کاربری‌‌هایی به‌‌کار روند که پیش‌‌ازاین استفاده از یادگیری ماشین در آن‌‌ها بسیار مخاطره‌آمیز به‌‌شمار می‌‌آمد.

یافته‌‌های اخیر در قالب مقاله‌‌ای در ژورنال علمی ساینس منتشر شده است.

تبلیغات
داغ‌ترین مطالب روز

نظرات

تبلیغات