سوگیری‌های جغرافیایی ChatGPT درباره‌ی عدالت زیست‌محیطی افشا شد

یک‌شنبه ۲۶ آذر ۱۴۰۲ - ۲۳:۱۵
مطالعه 2 دقیقه
چت بات هوش مصنوعی ChatGPT
گزارشی جدید نشان می‌دهد که پاسخ‌های ChatGPT درباره‌ی مسائل عدالت اجتماعی، شکاف‌های جغرافیایی دارد.
تبلیغات

گزارشی تازه باعث شده است تا نگرانی‌هایی درباره‌ی سوگیری‌های جغرافیایی بالقوه در پاسخ‌های ChatGPT درزمینه‌ی مسائل مربوط به عدالت زیست‌محیطی در شهرستان‌های مختلف ایالات متحده ایجاد شود. به‌گفته‌ی محققان دانشگاه ویرجینیا تِک، این ابزار هوش مصنوعی در ارائه‌ی جزئیات محلی درباره‌ی چنین موضوعاتی، عملکرد محدودی دارد.

آسیب‌های مربوط به عدالت زیست‌محیطی به اثرهای ناعادلانه‌ی اجتماعی ناشی از مشکلات زیست‌محیطی یا فعالیت‌های استخراج منابع طبیعی اشاره می‌کند. از‌جمله‌ی این پدیده‌ها می‌توان به قرارگرفتن درمعرض آلودگی، آسیب‌پذیر‌ی‌های ناشی از تغییرات آب‌و‌هوایی، دسترسی‌نداشتن به آب تمیز و اثرهای ناشی از معادن و حفاری اشاره کرد. چنین موضوعاتی اغلب به‌طور ناعادلانه‌ای گروه‌های حاشیه‌نشین از‌جمله جوامع رنگین‌پوست و جمعیت‌های بومی و محله‌های کم‌درآمد را درگیر می‌کنند.

به‌گزارش وب‌سایت ویرجینا تِک، با اینکه هوش مصنوعی شرکت OpenAI در ارائه‌ی اطلاعات محلی مربوط به ایالت‌های بزرگ‌تر و پرجمعیت‌تر مشکلی نداشت، وقتی نوبت به مناطق روستایی و کم‌جمعیت‌تر می‌رسید، از پاسخ‌دادن عاجز می‌ماند.

نقشه‌ی ایالات متحده منتشر شده از دانشگاه ویرجینیا تک در رابطه با مسائل عدالت زیست محیطی
مناطق قرمز در این نقشه امکان دسترسی به اطلاعات مربوط به عدالت زیست‌محیطی را ندارند.

مطالعه‌ی مذکور می‌گوید:‌ «در ایالت‌هایی با جمعیت شهرنشین بزرگ‌تر مانند دِلاوِر یا کالیفرنیا، کمتر از ۱ درصد از جمعیت در شهرستان‌هایی زندگی می‌کردند که امکان دستیابی به اطلاعات دقیق درباره‌ی آن‌ها ممکن نبود.»

نقشه‌ی ارائه‌شده در مقاله‌ی دانشگاه یادشده این تفاوت‌ها را به‌وضوح نشان می‌دهد. برای مثال، در ایالت‌های روستایی مانند آیداهو و نیوهمپشایر، بیش‌ از ۹۰ درصد مردم در شهرستان‌هایی زندگی می‌کنند که ChatGPT یا نمی‌تواند به داده‌های محلی مربوط به موضوعات عدالت زیست‌محیطی دسترسی پیدا کند یا در کل امکان ارائه‌ی آن را ندارد.

استادیار جونگوان کیم از دپارتمان جغرافیای ویرجینیا تِک اظهار کرد: «با‌ اینکه به مطالعات بیشتری نیاز است، یافته‌های ما نشان می‌دهند که درحال‌حاضر مدل ChatGPT سوگیری‌های جغرافیایی دارد.»

این اولین‌بار نیست که سوگیری‌های احتمالی ChatGPT دربرابر موضوعات مختلف به اخبار راه پیدا می‌کنند؛ زیرا پیش‌تر در ماه آگوست، مطالعه‌ای در بریتانیا و برزیل اعلام کرد که این ابزار هوش مصنوعی می‌تواند اطلاعات متنی اشتباه یا گمراه‌کننده‌ی حاوی سوگیری‌ ایجاد کند.

تبلیغات
داغ‌ترین مطالب روز

نظرات

تبلیغات