درس‌هایی که مایکروسافت از بات هوش مصنوعی Tay گرفت

دوشنبه ۱۴ مرداد ۱۳۹۸ - ۱۲:۰۰
مطالعه 5 دقیقه
مایکروسافت در سال ۲۰۱۶ فعالیت باتی مبتنی‌بر فناوری یادگیری ماشین را در توییتر آغاز کرد؛ اما این بات در کمتر از ۲۴ ساعت، ادبیاتش تغییر و توییت‌هایی نژادپرستانه منتشر کرد.

مارس ۲۰۱۶، مایکروسافت فعالیت بات هوش‌ مصنوعی Tay را در توییتر آغاز کرد تا ببیند این باتِ مبتنی‌بر یادگیری ماشین و هوش مصنوعی چگونه با انسان‌ها تعامل می‌کند. به‌گفته‌ی دایانا کِلی (Dianna Kelley)، مدیر بخش امنیت سایبری مایکروسافت، گروهی که وظیفه‌ی توسعه و پشتیبانی از Tay را برعهده داشت، می‌خواست این بات زبان طبیعی را یاد بگیرد. از دیدگاه افراد گروه، توییتر محیطی طبیعی بود که می‌شد از آن برای آزمایش بات استفاده کرد. دایانا کِلی در کنفرانس RSA آسیاپسیفیک و ژاپن ۲۰۱۹ که ماه پیش در سنگاپور برگزار شد، درباره‌ی بات Tay گفت:

Tay آمریکایی‌های ۱۸ تا ۲۴ ساله را هدف قرار داده و برای سرگردم‌کردن افرادی طراحی شده بود که به‌صورت تفننی و تفریحی باهم گپ می‌زدند. در کمتر از ۲۴ ساعت پس از آغاز فعالیت Tay در توئیتر، این بات بیش از ۵۰ هزار دنبال‌کننده پیدا و نزدیک به ۱۰۰ هزار توییت منتشر کرده بود. Tay ابتدا خیلی دوست‌داشتنی شروع کرد و سلامی داد و آدم‌ها را باحال خطاب کرد؛ اما وقتی نوبت به تعامل با دیگر کاربران توییتر رسید، ساختار یادگیری ماشینی‌اش فورا تمام تعاملات را به خوب و بد و زشت تقسیم‌بندی کرد. برخی از توییتهای Tay بسیار تهاجمی و در کمتر از ۱۶ ساعت، به نژادپرستی بی‌پروا تبدیل شد که باید برای تنظیمات مجدد از مدار خارج می‌شد. کِلی گفت: 

وی معتقد است این اتفاق مثالی فوق‌العاده برای درک این مسئله است که هنگام خلق چیزهایی همچون هوش مصنوعی در زمان دریافت اطلاعات و آموزش، باید به این موارد توجه کرد. کِلی در این باره گفت:

به‌گفته‌ی کِلی، این درسی مهم برای تمام کسانی است که به‌شکلی درگیر این مسئله هستند. همه‌ی شرکت‌ها باید هنگام طراحی هوش مصنوعی و یادگیری ماشینی، آن‌ها را دربرابر چنین رفتار آزاردهنده‌ای کاملا مقاوم کنند. کِلی در این زمینه گفت:

از دیدگاه دایانا کِلی، جلوگیری از چنین چیزی مستلزم وجود انصاف و برابری است. مثالی که او برای این موضوع زد، ابزاری برای استخدام بود؛ ابزاری که از هوش مصنوعی برای بررسی رزومه‌ی افراد و تعیین داوطلبان مناسب درمقابل داوطلبان نامناسب استفاده می‌کند.

وی معتقد است آموزش هوش مصنوعی با اطلاعاتی از این دست که «داوطلب خوب» شبیه کیست، ابزار را به جهتی سوق می‌دهد که بیشتر به‌دنبال کسانی باشد که قبلا در آن شغل بوده‌اند.

کِلی در بخش دیگری از سخنان در کنفرانس RSA آسیاپسیفیک و ژاپن ۲۰۱۹ گفت:

مثال دیگری که کِلی مطرح کرد، حسگر دست‌شویی برای شست‌وشوی دست‌ها بود:

حریم خصوصی و شفافیت از دیگر مقولات بسیار مهم در هوش مصنوعی هستند که دایانا کِلی به آن‌ها اشاره کرد:

دیدگاه شما در باره‌ی بات‌های هوش مصنوعی چیست و آن‌ها را چقدر سودمند می‌دانید؟

مطالب مشابه

نظرات