درس‌هایی که مایکروسافت از بات هوش مصنوعی Tay گرفت

دوشنبه ۱۴ مرداد ۱۳۹۸ - ۱۲:۰۰
مطالعه 5 دقیقه
مایکروسافت در سال ۲۰۱۶ فعالیت باتی مبتنی‌بر فناوری یادگیری ماشین را در توییتر آغاز کرد؛ اما این بات در کمتر از ۲۴ ساعت، ادبیاتش تغییر و توییت‌هایی نژادپرستانه منتشر کرد.
تبلیغات

مارس ۲۰۱۶، مایکروسافت فعالیت بات هوش‌ مصنوعی Tay را در توییتر آغاز کرد تا ببیند این باتِ مبتنی‌بر یادگیری ماشین و هوش مصنوعی چگونه با انسان‌ها تعامل می‌کند. به‌گفته‌ی دایانا کِلی (Dianna Kelley)، مدیر بخش امنیت سایبری مایکروسافت، گروهی که وظیفه‌ی توسعه و پشتیبانی از Tay را برعهده داشت، می‌خواست این بات زبان طبیعی را یاد بگیرد. از دیدگاه افراد گروه، توییتر محیطی طبیعی بود که می‌شد از آن برای آزمایش بات استفاده کرد. دایانا کِلی در کنفرانس RSA آسیاپسیفیک و ژاپن ۲۰۱۹ که ماه پیش در سنگاپور برگزار شد، درباره‌ی بات Tay گفت:

Tay مثالی عالی برای هوش مصنوعی و یادگیری ماشین است.

Tay آمریکایی‌های ۱۸ تا ۲۴ ساله را هدف قرار داده و برای سرگردم‌کردن افرادی طراحی شده بود که به‌صورت تفننی و تفریحی باهم گپ می‌زدند. در کمتر از ۲۴ ساعت پس از آغاز فعالیت Tay در توئیتر، این بات بیش از ۵۰ هزار دنبال‌کننده پیدا و نزدیک به ۱۰۰ هزار توییت منتشر کرده بود. Tay ابتدا خیلی دوست‌داشتنی شروع کرد و سلامی داد و آدم‌ها را باحال خطاب کرد؛ اما وقتی نوبت به تعامل با دیگر کاربران توییتر رسید، ساختار یادگیری ماشینی‌اش فورا تمام تعاملات را به خوب و بد و زشت تقسیم‌بندی کرد. برخی از توییتهای Tay بسیار تهاجمی و در کمتر از ۱۶ ساعت، به نژادپرستی بی‌پروا تبدیل شد که باید برای تنظیمات مجدد از مدار خارج می‌شد. کِلی گفت: 

درواقع، Tay صرفا درمعرض واژه‌ها و اصطلاحات اندکی از زبان قرار گرفته بود که بخش زیادی از آن کاملا نژادپرستانه و خشن بود. نمی‌خواهم مجددا حرف‌های Tay را تکرار کنم؛ اما مثلا گفته بود «حق با نازی‌ها بود». بسیاری از این اتفاقات ناخواسته بود. بالاخره بعضی وقت‌ها از این چیزها هم پیش می‌‎آید.

وی معتقد است این اتفاق مثالی فوق‌العاده برای درک این مسئله است که هنگام خلق چیزهایی همچون هوش مصنوعی در زمان دریافت اطلاعات و آموزش، باید به این موارد توجه کرد. کِلی در این باره گفت:

هم‌زمان که هوش مصنوعی و یادگیری‌ ماشینی را برای تقویت کسب‌و‌کارمان به‌کار می‌بریم، باید بدانیم تبعاتی همچون احتمال انحراف در آن‌ها هم وجود دارد. در این مورد خاص، تبعات آن خیلی برای مایکروسافت شدید نبود. آن‌ها همراه‌ عذرخواهی عمومی گفتند Tay را از مدار خارج می‌کنند؛ اما جالب این بود که مدیر مایکروسافت شخصا با تیم مرتبط تماس گرفت و به‌جای شکایت و گفتن جملاتی چون «وای خدا، خیلی کارتان وحشتناک بود» یا «خیلی بد شد»، صرفا گفت که درس گرفتیم.

هوش مصنوعی باید دربرابر بدآموزی کاملا مقاوم شده باشد

به‌گفته‌ی کِلی، این درسی مهم برای تمام کسانی است که به‌شکلی درگیر این مسئله هستند. همه‌ی شرکت‌ها باید هنگام طراحی هوش مصنوعی و یادگیری ماشینی، آن‌ها را دربرابر چنین رفتار آزاردهنده‌ای کاملا مقاوم کنند. کِلی در این زمینه گفت:

درس‌گرفتن از Tay حقیقتا سهم مهمی در توسعه‌ی مبانی دانش تیم طراحی Tay داشت. حالا آن‌ها حین یادگیری، تنوع و تفاو‌ت‌های خودشان را هم یاد می‌گیرند. در نگاهمان به هوش مصنوعی و نحوه‌ی تحقیق و خلق آن به نحوی که هم برای جهان پیرامون مفید و هم به‌درستی پیاده‌سازی شده باشد، بسیار مهم است که ظرفیت‌های اخلاقی اجزای هوش مصنوعی را درک کنیم. هنگام توسعه‌ی هوش مصنوعی، درواقع درحال دست‌زدن به این خطر هستیم که شاید به‌جای تسریع در انجام کارها و امنیت سایبری بیشتر، سامانه‌هایی خلق کنیم که خودکار اعمالی حقیقتا متعصبانه انجام می‌دهند.

از دیدگاه دایانا کِلی، جلوگیری از چنین چیزی مستلزم وجود انصاف و برابری است. مثالی که او برای این موضوع زد، ابزاری برای استخدام بود؛ ابزاری که از هوش مصنوعی برای بررسی رزومه‌ی افراد و تعیین داوطلبان مناسب درمقابل داوطلبان نامناسب استفاده می‌کند.

اگر خوراک هوش مصنوعی را صرفا رزومه‌ی افرادی قرار دهید که همگی قبلا شاغل بوده‌اند، درواقع به الگوریتم آموزش می‌دهید که بیشتر به‌دنبال همان‌ها هم باشد. شاید ظاهرا برای شروع بد نباشد؛ اما مگر ما درباره‌ی مهندسی و بسیاری از مشاغل مرتبط با کامپیوتر، به‌ویژه امنیت سایبری چه می‌دانیم؟ آیا ذاتا ازلحاظ جنسیتی به‌سمت جنس خاصی سنگینی ندارد؟ البته، بسیاری از افراد شاغل در مشاغل برنامه‌نویسی کامپیوتر و امنیت سایبری، غالبا مرد هستند و این نسبت درزمینه‌ی امنیت سایبری می‌تواند به ۹۰ درصد هم برسد.
ethics for AI 2

وی معتقد است آموزش هوش مصنوعی با اطلاعاتی از این دست که «داوطلب خوب» شبیه کیست، ابزار را به جهتی سوق می‌دهد که بیشتر به‌دنبال کسانی باشد که قبلا در آن شغل بوده‌اند.

اگر هوش مصنوعی در تشخیص بیماری اشتباه کند، چه کسی پاسخ‌گو است؟

کِلی در بخش دیگری از سخنان در کنفرانس RSA آسیاپسیفیک و ژاپن ۲۰۱۹ گفت:

نکته‌ی مهم درباره‌ی هوش مصنوعی، همراه‌کردن آن با قابلیت اطمینان و امنیت است؛ زیرا وقتی از هوش مصنوعی برای کسب تصمیمات مهمی همچون مقوله‌ی تشخیص بیماری استفاده کنیم که مثلا آیا فلان غده، سرطانی است یا خیر، باید مطمئن باشیم تصمیم گرفته‌شده کاملا درست است. اگر برایتان تشخیص سرطان داده شود یا بگویند مبتلا به سرطان نیستید؛ اما بعدا مشخص شود مبتلا هستید، چه کسی پاسخ‌گو است؟ بنابراین، در تمامی این موارد باید بسیار دقیق باشیم و هنگام توسعه‌ی هوش مصنوعی و یادگیری ماشینی، آن‌ها را دخیل کنیم. هوش مصنوعی باید دربرابر سوءاستفاده نیز قابل‌اطمینان باشند. Tay داشت بسیار نژادپرست می‌شد. می‌خواهیم مطمئن باشیم که در موارد بعدی، دربرابر چنین حملاتی مقاوم است.

مثال دیگری که کِلی مطرح کرد، حسگر دست‌شویی برای شست‌وشوی دست‌ها بود:

طراحان حسگر آن را با پوست دست خودشان امتحان کردند که خیلی عمومیت نداشت؛ درنتیجه، اگر پوستی رنگ‌پریده مثل من داشتید، شاید خیلی عالی کار می‌کرد. بااین‌حال، به‌احتمال زیاد با پوستی تیره‌تر درست عمل نمی‌کرد؛ بنابراین، سامانه‌ای داشتید که جامع نبود.

حریم خصوصی و شفافیت از دیگر مقولات بسیار مهم در هوش مصنوعی هستند که دایانا کِلی به آن‌ها اشاره کرد:

حریم خصوصی کسی که اطلاعاتش موجود است و شفافیت در روش کمک به دیگران، درک نحوه‌ی کار مدل را موجب می‌شود. این نه‌تنها مشکل فناوری، بلکه مشکلی بزرگ‌تر است و گروهی متنوع از مردم باید در ایجاد سامانه‌ها همکاری کنند تا مطمئن شویم کاملا اخلاق‌مدار خواهند بود.

دیدگاه شما در باره‌ی بات‌های هوش مصنوعی چیست و آن‌ها را چقدر سودمند می‌دانید؟

تبلیغات
داغ‌ترین مطالب روز

نظرات

تبلیغات