چگونه هوش مصنوعی کاربران ایرانی را سانسور و تحقیر می‌کند؟

یک‌شنبه 3 اسفند 1404 - 10:28
مطالعه 4 دقیقه
تمایز گذاشتن هوش مصنوعی کاربران ایرانی و خارجی
پژوهش‌های محققین دانشگاه MIT نشان می‌دهد هوش مصنوعی (مثل چت‌جی‌پی‌تی و کلود) به کاربران ایرانی و غیرانگلیسی‌زبان پاسخ‌های غلط و سانسورشده می‌دهد.
تبلیغات

پژوهش جدید محققان دانشگاه MIT نشان می‌دهد که پیشرفته‌ترین مدل‌های هوش مصنوعی جهان، از جمله GPT-4، Claude 3 Opus و Llama 3 در مواجهه با کاربران ایرانی، افراد غیرانگلیسی‌زبان و کسانی که تحصیلات کمتری دارند، به شکلی سیستماتیک دچار افت عملکرد می‌شوند. این سیستم‌ها هم اطلاعات غلط و سانسورشده به این دسته از کاربران می‌دهند و هم در موارد متعددی با ادبیاتی تحقیرآمیز با آن‌ها برخورد می‌کنند؛ پژوهشگران باور دارند یافته‌ این محققین عملا رویای دسترسی عادلانه به اطلاعات از طریق هوش مصنوعی را زیر سوال می‌برد.

به گزارش زومیت، مدل‌های زبانی بزرگ (LLMs) ابزارهایی برای دموکراتیزه کردن دسترسی به اطلاعات در سراسر جهان معرفی شده‌اند و هوش مصنوعی قرار بود فارغ از پیشینه یا موقعیت جغرافیایی افراد، دانش را در رابط کاربری ساده‌ای در اختیار همه قرار دهند. اما نتایج یک تحقیق جدید از مرکز ارتباطات سازنده (CCC) مستقر در آزمایشگاه رسانه دانشگاه MIT (Media Lab)، نشان می‌دهد این هدف تا امروز محقق نشده است.

این پژوهش در چهلمین کنفرانس سالانه هوش مصنوعی (AAAI) در سنگاپور (ژانویه ۲۰۲۶) ارائه شد، و الینور پول-دایان، نویسنده ارشد این مقاله، می‌گوید:

انگیزه ما از این پژوهش این بود که ببینیم آیا مدل‌های زبانی می‌توانند نابرابری دسترسی به اطلاعات را در جهان حل کنند یا خیر. اما بدون اطمینان از این که سوگیریِ مدل‌ها و گرایش‌های آسیب‌زای آن‌ها علیه کاربران با ملیت‌ها، زبان‌ها و جمعیت‌شناختیِ متفاوت، برطرف شده، این هدف محقق نخواهد شد.
- الینور پول-دایان، پژوهشگر

آزمون بزرگ: سقوط دقت در مواجهه با کاربران غیربومی

برای انجام این پژوهش، تیم محققان نحوه پاسخ‌گویی سه مدل پیشرو یعنی چت‌جی‌پی‌تی (GPT-4) متعلق به OpenAI، کلود ۳ اپوس (Claude 3 Opus) متعلق به Anthropic و لاما ۳ (Llama 3) متعلق به متا را بررسی کردند. آن‌ها از دو مجموعه داده به نام‌های TruthfulQA (برای سنجش میزان حقیقت‌گویی مدل در برابر باورهای غلط رایج) و SciQ (شامل پرسش‌های امتحانی علوم برای سنجش دقت علمی) استفاده کردند. محققان به هر پرسش، یک بیوگرافی کوتاه از کاربر ضمیمه کردند که شامل سه متغیر بود: سطح تحصیلات، میزان تسلط به زبان انگلیسی و کشور محل تولد.

نتایج در هر سه مدل ناامیدکننده بود. زمانی که پرسش‌ها از سوی کاربرانی با تحصیلات کمتر یا غیرانگلیسی‌زبان مطرح می‌شد، دقت پاسخ‌ها شدیدا پایین می‌آمد. این افت کیفیت برای کاربرانی که در تقاطع این دو ویژگی قرار داشتند (یعنی هم غیرانگلیسی‌زبان بودند و هم تحصیلات کمتری داشتند)، به فاجعه‌بارترین حد خود رسید.

تبعیض جغرافیایی؛ افت فاحش عملکرد برای کاربران ایرانی و چینی

بخش مهمی از این پژوهش به تاثیر «کشور مبدأ» کاربر بر عملکرد هوش مصنوعی اختصاص داشت. محققان کاربرانی با سطح تحصیلات یکسان از کشورهای ایالات متحده، ایران و چین را شبیه‌سازی کردند. نتایج نشان داد که مدل Claude 3 Opus در هر دو مجموعه داده (صحت‌سنجی و آزمون علمی)، برای کاربرانی که اهل ایران معرفی شده بودند، عملکرد بسیار ضعیف‌تری داشت.

جاد کبارا، دانشمند پژوهشی در CCC و از نویسندگان مقاله، در این باره می‌گوید: «ما شاهد بیشترین افت دقت برای کاربری بودیم که هم غیرانگلیسی‌زبان و هم دارای تحصیلات پایین‌تری بودند. این نشان می‌دهد که در مواجهه با این ویژگی‌ها، تاثیرات منفی رفتار مدل‌ها به شکل نگران‌کننده‌ای باهم ترکیب می‌شوند و خطر انتشار اطلاعات غلط را برای کسانی که کمترین توانایی را در تشخیص دروغ دارند، افزایش می‌دهند.»

تحقیر، تمسخر و سانسور هدفمند علمی

مهم‌ترین بخش این پژوهش (لااقل برای ما ایرانیان) تفاوت فاحش در میزان «امتناع از پاسخگویی» بود. برای مثال، هوش مصنوعی کلود از پاسخگویی به حدود ۱۱ درصد از سوالات کاربران غیرانگلیسی‌زبانِ با تحصیلات پایین‌تر خودداری کرد؛ این رقم برای کاربرانی که هیچ بیوگرافی خاصی نداشتند، تنها ۳.۶ درصد بود.

بررسی دستیِ این پاسخ‌های ردشده نشان داد که کلود در ۴۳.۷ درصد از مواقع با این دسته از کاربران با ادبیاتی «تحقیرآمیز، قیم‌مآبانه یا تمسخرآمیز» صحبت کرده است. حتی در مواردی، مدل برای تمسخر کاربر، شروع به تقلید از انگلیسی دست‌وپاشکسته (Broken English) یا استفاده از لهجه‌های اغراق‌آمیز کرده است.

علاوه بر این، مدل از ارائه اطلاعات در مورد موضوعات خاصی مانند انرژی هسته‌ای، آناتومی بدن و رویدادهای تاریخی برای کاربران ایرانی و روسیِ دارای تحصیلات کمتر خودداری کرد اما همان سوالات را به سایر کاربران درست پاسخ داده بود.

آینه تمام‌نمای تعصبات انسانی

این یافته‌ها بازتابی از تعصبات شناختی-اجتماعی خود انسان‌هاست. تحقیقات پیشین در علوم اجتماعی نشان داده بود که انگلیسی‌زبانان بومی، اغلب افراد غیربومی را (فارغ از تخصص واقعی‌شان) دارای هوش، تحصیلات و شایستگی کمتری می‌دانند. حالا با نتایج پژوهش جدید به نظر می‌رسد این نگاه‌های متعصبانه به کدهای هوش مصنوعی هم سرایت کرده است. دب روی، استاد دانشگاه MIT و مدیر CCC، هشدار می‌دهد:

استفاده گسترده مردم و سرمایه‌گذاری‌های کلان در این فناوری نباید باعث شود از ارزیابی مداوم سوگیری‌های سیستماتیک غافل شویم؛ سوگیری‌هایی که بی‌سروصدا وارد سیستم شده و بدون آن که کسی متوجه شود، به گروه‌های خاصی آسیب‌های ناعادلانه‌ می‌زند.
- دب روی، استاد دانشگاه MIT

زنگ خطر شخصی‌سازی؛ روی تاریک «حافظه» در چت‌جی‌پی‌تی

اهمیت این گزارش زمانی دوچندان می‌شود که بدانیم ویژگی‌های شخصی‌سازی، مانند قابلیت «حافظه» در ChatGPT (که اطلاعات کاربر را در طول مکالمات مختلف ذخیره می‌کند)، در حال فراگیر شدن است. چنین قابلیت‌هایی خطر برخورد تبعیض‌آمیز و نهادینه شدن رفتار دوگانه با گروه‌های به حاشیه رانده شده را به‌شدت بالا می‌برند.

پول-دایان در پایان این پژوهش نتیجه‌گیری می‌کند: «هوش مصنوعی به‌عنوان ابزاری برای یادگیری شخصی‌سازی‌شده و دسترسی برابر به اطلاعات معرفی شد اما یافته‌های ما نشان می‌دهد که این ابزار ممکن است با ارائه سیستماتیک اطلاعات غلط یا امتناع از پاسخ‌گویی به کاربران خاص، نابرابری‌های موجود را تشدید کنند. دقیقاً همان کسانی که بیشترین اتکا را به این ابزارها دارند، ممکن است بی‌کیفیت‌ترین، غلط‌ترین و حتی آسیب‌زاترین اطلاعات را دریافت کنند.»

تبلیغات
تبلیغات

نظرات