از اطمینان بیشاز حد تا سوگیری؛ چت جیپیتی نیز در دام خطاهای انسانی میافتد
اگرچه انسانها و سیستمهای هوش مصنوعی (AI) به شیوههای بسیار متفاوتی فکر میکنند، پژوهشهای جدید نشان دادهاند که هوش مصنوعی گاهی اندازهی انسانها غیرمنطقی تصمیم میگیرد.
در مطالعهای جدید، چتجیپیتی در تقریباً نیمی از سناریوهای بررسیشده بسیاری از متداولترین سوگیریهای تصمیمگیری انسانی را از خود نشان داد. این یافتهها اولین نتایج پژوهشی هستند که رفتار چتجیپیتی را در مواجهه با ۱۸ سوگیری شناختی شناختهشده در روانشناسی انسانی ارزیابی میکنند.
نویسندگان پژوهش، از پنج مؤسسه دانشگاهی در کانادا و استرالیا، مدلهای زبانی بزرگ GPT-3.5 و GPT-4 (که موتورهای پشت چتجیپیتی هستند) را آزمایش کردند و دریافتند با وجود آنکه این مدلها در استدلال خود بهطور چشمگیری منسجم عمل میکنند، بهطور کامل از خطاهای مشابه با انسانها مصون نیستند.
علاوهبراین، به گفتهی نویسندگان پژوهش این انسجام میتواند آثار مثبت و منفی داشته باشد. یانگ چن، نویسندهی اصلی پژوهش و استادیار مدیریت عملیات در مدرسه بازرگانی آیوی، در بیانیهای گفت:
مدیران بیشترین بهره را زمانی میبرند که از این ابزارها برای مسائلی استفاده کنند که راهحل مشخص و فرمولمندی دارند؛ اما اگر قرار است از آنها برای تصمیمگیریهای مبتنی بر سلیقه یا قضاوت شخصی استفاده شود، باید با احتیاط عمل کرد.
در پژوهش، سوگیریهای انسانی شناختهشدهای مانند اجتناب از ریسک، اعتمادبهنفس بیش از حد و اثر مالکیت (اینکه برای چیزهایی که صاحبشان هستیم ارزش بیشتری قائل میشویم) در قالب سوالاتی به چتجیپیتی داده شدند تا مشخص شود که آیا هوش مصنوعی هم در همان دامهایی میافتد که انسانها گرفتارشان میشوند یا نه.
تصمیمهای منطقی، اما گاهی اوقات
دانشمندان از مدلهای زبانی بزرگ سوالاتی فرضی برگرفته از روانشناسی سنتی در زمینههایی با کاربرد تجاری در دنیای واقعی، مثل مدیریت موجودی انبار یا مذاکرات با تأمینکنندگان پرسیدند. آنها نهتنها میخواستند بدانند هوش مصنوعی از سوگیریهای انسانی تقلید میکند، بلکه بررسی کردند آیا حتی در صورت مطرحکردن پرسشهایی از حوزههای مختلف کسب و کار، این رفتار را تکرار میکند یا خیر.
- آیا باید به خاطر استفاده از هوش مصنوعی احساس گناه کنیم؟01 11 03مطالعه '13
- هوش مصنوعی در استخدام نیروهای جدید عملکرد خوبی ندارد29 11 02مطالعه '2
هوش مصنوعی GPT-4 در پاسخگویی به مسائلی با راهحلهای ریاضی واضح، عملکرد بهتری نسبت به GPT-3.5 داشت و اشتباهات کمتری در سناریوهای مبتنی بر احتمال و منطق نشان داد؛ اما در شبیهسازیهای ذهنی و سلیقهای، مانند انتخاب گزینهای پرریسک برای رسیدن به سود، این چتبات اغلب گرایشهای غیرمنطقی مشابه انسانها را از خود نشان داد. پژوهشگران در مقاله با اشاره به گرایش هوش مصنوعی برای انتخاب نتیجههای ایمنتر و پیشبینیپذیرتر هنگام روبهرو شدن با وظایف مبهم، نوشتند: «GPT-4 حتی بیشتر از انسانها به قطعیت تمایل دارد.»
مهمتر از آن، چه در شرایطی که پرسشها به شکل مسئلههای روانشناختی انتزاعی مطرح شده بود و چه به صورت فرآیندهای عملیاتی کسب و کار، شرایط چتباتها ثابت ماند. این پژوهش نتیجهگیری کرد که سوگیریهای مشاهدهشده صرفاً محصول مثالهای حفظشده نیستند، بلکه بخشی از منطق استدلالی AI را تشکیل میدهند. یکی از نتایج شگفتانگیز این تحقیق، روشی بود که GPT-4 گاهی اوقات با آن خطاهای شبیه انسان را تقویت میکرد. نویسندگان نوشتند:
در وظیفهی سوگیری تأییدی، GPT-4 همیشه پاسخهای دارای سوگیری ارائه میداد همچنین تمایل بیشتری به توهم دست داغ (سوگیری انتظار دیدن الگو در دادههای تصادفی) نسبت به GPT-3.5 نشان داد.
در مقابل، چتجیپیتی موفق شد از برخی سوگیریهای رایج انسانی از جمله غفلت از نرخ پایه (که در آن اطلاعات آماری را به نفع شواهد موردی نادیده میگیریم) و مغالطه هزینهی هدررفته (که تصمیمگیری را بر اساس هزینهای که قبلاً انجام شده تحت تأثیر قرار میدهد و باعث میشود اطلاعات نامربوط بر قضاوت اثر بگذارد) اجتناب کند.
سوگیریهای چتجیپیتی از دادههای آموزشی سرچشمه میگیرند
به گفتهی نویسندگان، سوگیریهای شبیه انسان در چتجیپیتی از دادههای آموزشی نشأت میگیرد که خود شامل سوگیریها و میانبرهای ذهنی انسانی است. این گرایشها در مرحلهی تنظیم دقیق (fine-tuning) تقویت میشوند؛ بهویژه زمانی که بازخورد انسانی، پاسخهای قابلقبول و طبیعی را به پاسخهای کاملاً منطقی ترجیح میدهد. وقتی هوش مصنوعی با وظایف مبهمتر مواجه میشود، بیشتر به الگوهای استدلال انسانی تمایل پیدا میکند تا منطق صِرف. چن گفت: «اگر به دنبال پشتیبانی تصمیمگیری دقیق و بدون سوگیری هستید، از GPT در حوزههایی استفاده کنید که در آن به یک ماشینحساب اعتماد دارید.»
وقتی نتیجه به ورودیهای ذهنی یا استراتژیک بستگی دارد، نظارت انسانی اهمیت بیشتری پیدا میکند، حتی اگر فقط برای اصلاح سوگیریها در ورودیها باشد. مینا اندیاپان، دانشیار منابع انسانی و مدیریت در دانشگاه مکمستر کانادا و یکی از نویسندگان پژوهش، در بیانیهای گفت:
هوش مصنوعی باید مثل یک کارمند تلقی شود که تصمیمات مهمی میگیرد و نیازمند نظارت و دستورالعملهای اخلاقی است. در غیر این صورت، بهجای بهبود تفکر، تفکر معیوب را خودکارسازی میکنیم.
مطالعه در مجله Manufacturing & Service Operations Management منتشر شده است.