چگونه هوش مصنوعی کاربران ایرانی را سانسور و تحقیر میکند؟
پژوهش جدید محققان دانشگاه MIT نشان میدهد که پیشرفتهترین مدلهای هوش مصنوعی جهان، از جمله GPT-4، Claude 3 Opus و Llama 3 در مواجهه با کاربران ایرانی، افراد غیرانگلیسیزبان و کسانی که تحصیلات کمتری دارند، به شکلی سیستماتیک دچار افت عملکرد میشوند. این سیستمها هم اطلاعات غلط و سانسورشده به این دسته از کاربران میدهند و هم در موارد متعددی با ادبیاتی تحقیرآمیز با آنها برخورد میکنند؛ پژوهشگران باور دارند یافته این محققین عملا رویای دسترسی عادلانه به اطلاعات از طریق هوش مصنوعی را زیر سوال میبرد.
به گزارش زومیت، مدلهای زبانی بزرگ (LLMs) ابزارهایی برای دموکراتیزه کردن دسترسی به اطلاعات در سراسر جهان معرفی شدهاند و هوش مصنوعی قرار بود فارغ از پیشینه یا موقعیت جغرافیایی افراد، دانش را در رابط کاربری سادهای در اختیار همه قرار دهند. اما نتایج یک تحقیق جدید از مرکز ارتباطات سازنده (CCC) مستقر در آزمایشگاه رسانه دانشگاه MIT (Media Lab)، نشان میدهد این هدف تا امروز محقق نشده است.
این پژوهش در چهلمین کنفرانس سالانه هوش مصنوعی (AAAI) در سنگاپور (ژانویه ۲۰۲۶) ارائه شد، و الینور پول-دایان، نویسنده ارشد این مقاله، میگوید:
انگیزه ما از این پژوهش این بود که ببینیم آیا مدلهای زبانی میتوانند نابرابری دسترسی به اطلاعات را در جهان حل کنند یا خیر. اما بدون اطمینان از این که سوگیریِ مدلها و گرایشهای آسیبزای آنها علیه کاربران با ملیتها، زبانها و جمعیتشناختیِ متفاوت، برطرف شده، این هدف محقق نخواهد شد.- الینور پول-دایان، پژوهشگر
آزمون بزرگ: سقوط دقت در مواجهه با کاربران غیربومی
برای انجام این پژوهش، تیم محققان نحوه پاسخگویی سه مدل پیشرو یعنی چتجیپیتی (GPT-4) متعلق به OpenAI، کلود ۳ اپوس (Claude 3 Opus) متعلق به Anthropic و لاما ۳ (Llama 3) متعلق به متا را بررسی کردند. آنها از دو مجموعه داده به نامهای TruthfulQA (برای سنجش میزان حقیقتگویی مدل در برابر باورهای غلط رایج) و SciQ (شامل پرسشهای امتحانی علوم برای سنجش دقت علمی) استفاده کردند. محققان به هر پرسش، یک بیوگرافی کوتاه از کاربر ضمیمه کردند که شامل سه متغیر بود: سطح تحصیلات، میزان تسلط به زبان انگلیسی و کشور محل تولد.
نتایج در هر سه مدل ناامیدکننده بود. زمانی که پرسشها از سوی کاربرانی با تحصیلات کمتر یا غیرانگلیسیزبان مطرح میشد، دقت پاسخها شدیدا پایین میآمد. این افت کیفیت برای کاربرانی که در تقاطع این دو ویژگی قرار داشتند (یعنی هم غیرانگلیسیزبان بودند و هم تحصیلات کمتری داشتند)، به فاجعهبارترین حد خود رسید.
تبعیض جغرافیایی؛ افت فاحش عملکرد برای کاربران ایرانی و چینی
بخش مهمی از این پژوهش به تاثیر «کشور مبدأ» کاربر بر عملکرد هوش مصنوعی اختصاص داشت. محققان کاربرانی با سطح تحصیلات یکسان از کشورهای ایالات متحده، ایران و چین را شبیهسازی کردند. نتایج نشان داد که مدل Claude 3 Opus در هر دو مجموعه داده (صحتسنجی و آزمون علمی)، برای کاربرانی که اهل ایران معرفی شده بودند، عملکرد بسیار ضعیفتری داشت.
جاد کبارا، دانشمند پژوهشی در CCC و از نویسندگان مقاله، در این باره میگوید: «ما شاهد بیشترین افت دقت برای کاربری بودیم که هم غیرانگلیسیزبان و هم دارای تحصیلات پایینتری بودند. این نشان میدهد که در مواجهه با این ویژگیها، تاثیرات منفی رفتار مدلها به شکل نگرانکنندهای باهم ترکیب میشوند و خطر انتشار اطلاعات غلط را برای کسانی که کمترین توانایی را در تشخیص دروغ دارند، افزایش میدهند.»
تحقیر، تمسخر و سانسور هدفمند علمی
مهمترین بخش این پژوهش (لااقل برای ما ایرانیان) تفاوت فاحش در میزان «امتناع از پاسخگویی» بود. برای مثال، هوش مصنوعی کلود از پاسخگویی به حدود ۱۱ درصد از سوالات کاربران غیرانگلیسیزبانِ با تحصیلات پایینتر خودداری کرد؛ این رقم برای کاربرانی که هیچ بیوگرافی خاصی نداشتند، تنها ۳.۶ درصد بود.
بررسی دستیِ این پاسخهای ردشده نشان داد که کلود در ۴۳.۷ درصد از مواقع با این دسته از کاربران با ادبیاتی «تحقیرآمیز، قیممآبانه یا تمسخرآمیز» صحبت کرده است. حتی در مواردی، مدل برای تمسخر کاربر، شروع به تقلید از انگلیسی دستوپاشکسته (Broken English) یا استفاده از لهجههای اغراقآمیز کرده است.
علاوه بر این، مدل از ارائه اطلاعات در مورد موضوعات خاصی مانند انرژی هستهای، آناتومی بدن و رویدادهای تاریخی برای کاربران ایرانی و روسیِ دارای تحصیلات کمتر خودداری کرد اما همان سوالات را به سایر کاربران درست پاسخ داده بود.
آینه تمامنمای تعصبات انسانی
این یافتهها بازتابی از تعصبات شناختی-اجتماعی خود انسانهاست. تحقیقات پیشین در علوم اجتماعی نشان داده بود که انگلیسیزبانان بومی، اغلب افراد غیربومی را (فارغ از تخصص واقعیشان) دارای هوش، تحصیلات و شایستگی کمتری میدانند. حالا با نتایج پژوهش جدید به نظر میرسد این نگاههای متعصبانه به کدهای هوش مصنوعی هم سرایت کرده است. دب روی، استاد دانشگاه MIT و مدیر CCC، هشدار میدهد:
استفاده گسترده مردم و سرمایهگذاریهای کلان در این فناوری نباید باعث شود از ارزیابی مداوم سوگیریهای سیستماتیک غافل شویم؛ سوگیریهایی که بیسروصدا وارد سیستم شده و بدون آن که کسی متوجه شود، به گروههای خاصی آسیبهای ناعادلانه میزند.- دب روی، استاد دانشگاه MIT
زنگ خطر شخصیسازی؛ روی تاریک «حافظه» در چتجیپیتی
اهمیت این گزارش زمانی دوچندان میشود که بدانیم ویژگیهای شخصیسازی، مانند قابلیت «حافظه» در ChatGPT (که اطلاعات کاربر را در طول مکالمات مختلف ذخیره میکند)، در حال فراگیر شدن است. چنین قابلیتهایی خطر برخورد تبعیضآمیز و نهادینه شدن رفتار دوگانه با گروههای به حاشیه رانده شده را بهشدت بالا میبرند.
پول-دایان در پایان این پژوهش نتیجهگیری میکند: «هوش مصنوعی بهعنوان ابزاری برای یادگیری شخصیسازیشده و دسترسی برابر به اطلاعات معرفی شد اما یافتههای ما نشان میدهد که این ابزار ممکن است با ارائه سیستماتیک اطلاعات غلط یا امتناع از پاسخگویی به کاربران خاص، نابرابریهای موجود را تشدید کنند. دقیقاً همان کسانی که بیشترین اتکا را به این ابزارها دارند، ممکن است بیکیفیتترین، غلطترین و حتی آسیبزاترین اطلاعات را دریافت کنند.»