آیا میتوان هوش مصنوعی را به رفتار منصفانه با مردم وادار کرد؟
این روزها بهنظر میرسد هوش مصنوعی تقریبا از پس انجام هرکاری برمیآید. این ابزار میتواند جهان ما را شبیهسازی کند و مکعب روبیک را با یک دست حل کند و حتی ارواح پنهان در ژنوم اجداد پیشین ما را نیز کشف و شناسایی کند.
البته ادعا میشود تمامی این پیشرفتها برای منافع بشر شکل میگیرند؛ ولی آیا ممکن است این ادعا صحت نداشته باشد؟ در سالهای اخیر، شاهد آن بودهایم که بسیاری از سیستمهای الگوریتمی که با آنها سروکار داشتهایم، درمعرض خطرهایی نظیر سوگیریهای عمدی و غیرعمدی بودهاند. این سیستمها پیشتر در پیشبینی وقوع جرم با مشکلاتی مانند تبعیض نژادی مواجه شدهاند و حتی در اعتباردهی مشتریان متفاوت با جنسیت مرد یا زن نیز با اتهامات بحثبرانگیزی دستبهگریبان بودهاند.
حال پرسش اینجا است که چگونه دانشمندان تضمین میدهند چنین سیستمهایی در آینده میتوانند با «عدالت» رفتار کنند یا مهمتر اینکه «ایمن» باشند؟
پژوهشگران دانشگاه ماساچوست بهتازگی مطالعهی انجام دادهاند که گویا میتواند پاسخی برای پرسش یادشده ارائه کند. آنها چهارچوبی تعریف کردهاند که میتواند از بروز رفتارهایی از ماشینها جلوگیری کند که بهزعم آنها «رفتارهای نامطلوب» بهشمار میآید. فیلیپ توماس، پژوهشگر یادگیری ماشین میگوید:
وقتی الگوریتم یادگیری ماشین بهکار گرفته میشود، کنترل رفتار آن دشوار خواهد بود. ازآنجاکه تأثیر الگوریتمهای ماشینی روی زندگی ما همواره بیشتروبیشتر میشود، بسیار مهم است که بتوانیم از تضمین انصاف و اجتناب از هرگونه آسیب این سیستمها مطمئن شویم.
درواقع، چهارچوب یادشده که پژوهشگران بهکمک آن توانستهاند انواع جدیدی از الگوریتمهای یادگیری ماشین را توسعه دهند، درک ذاتی از مفاهیمی مانند اخلاق و انصاف را به هوش مصنوعی تزریق نمیکند؛ بلکه تنها به پژوهشگران کمک میکند خود رفتارهای نامطلوب سیستم را حین طراحی هستههای الگوریتم تعریف و تدوین کنند.
در هستهی این سیستم جدید، الگوریتمهایی حضور دارند که با نام الگوریتمهای سلدونین (Seldonian) شناخته میشوند؛ نامی که برگرفته از یکی از شخصیتهای اصلی سری رمانهای علمیتخیلی معروف «بنیاد» اثر آیزاک آسیموف است. این الگوریتمها تنها برای آن طراحی نشدهاند که از اخلاقیبودن عملیات ماشین مطمئن شوند؛ بلکه با آنها میتوان هرگونه رفتاری حتی مشتملبر جوانب پیچیدهی ایمنی سیستمهای پزشکی را نیز کنترل کرد. توماس ادامه میدهد:
اگر مثلا در حال استفاده از الگوریتم سلدونین در درمان دیابت باشم، میتوانم رفتار نامطلوب را بهصورت سطح پایین قندخون یا هیپوگلیسمی تعریف کنم و به ماشین بگویم که «وقتی در حال بهبود کنترلگر در پمپ انسولین هستی، تغییراتی انجام نده که موجب افزایش دفعات رخداد هیپوگلیسمی شود». بیشتر الگوریتمها راهکاری برای اعمال چنین محدودیتهایی در رفتار ماشین ارائه نمیکنند و در طراحیهای پیشین چنین امکانی لحاظ نشده بود.
در بخشی از مطالعات، پژوهشگران توانستند عملا از این الگوریتم سلدونین برای کنترل پمپ انسولین خودکار استفاده کنند. با این روش، آنها موفق شدند راهکاری میانبر برای تعیین میزان دُز انسولین قابلتزریق به فرد را براساس دادههای اندازهگیری گلوکوز خون همان فرد بیابند. همچنین در آزمایشی دیگر، آنها الگوریتمی توسعه دادند که میتوانست متوسط نمرهی عملکرد دانشآموزان را بدون هرگونه تبغیض جنسیتی پیشبینی کند؛ مسئلهای که بسیاری از الگوریتمهای پیشین را بهدلیل همین مسئله بهدردسر انداخته بود.
پژوهشگران تأکید میکنند این آزمایشها فقط مدرکی برای اثبات توانمندیهای الگوریتمهای سلدونین بهشمار میآیند و تمرکز اصلی کار همچنان معطوف به توسعهی خود چهارچوب است؛ چهارچوبی که دانشمندان دیگر هم بتوانند از آن برای ساخت سیستمهای هوش مصنوعی در آینده بهره ببرند. توماس میافزاید:
مقالههای مرتبط:سوگیری عمدی در هوش مصنوعی چگونه به ما آسیب میرساندجایگاه اخلاق در هوش مصنوعی چیست؟خطرات کنونی هوش مصنوعی و راههای مقابله با آنمعتقدیم هنوز جای زیادی برای بهبود در این عرصه وجود دارد. با اینکه الگوریتمهای ما از مؤلفههای سادهای تشکیل شده بود، نتایج بهدستآمده بسیار تأثیرگذار بودند. امیدواریم پژوهشگران حوزهی یادگیری ماشین با استفاده از چهارچوب ما بتوانند الگوریتمهای جدیدتر و پیچیدهتری خلق کنند؛ الگوریتمهایی که بتوانند بهشکلی مسئولانه برای کاربریهایی بهکار روند که پیشازاین استفاده از یادگیری ماشین در آنها بسیار مخاطرهآمیز بهشمار میآمد.
یافتههای اخیر در قالب مقالهای در ژورنال علمی ساینس منتشر شده است.
نظرات