از اطمینان بیش‌از حد تا سوگیری؛ چت جی‌پی‌تی نیز در دام خطاهای انسانی می‌افتد

چهارشنبه ۱۷ اردیبهشت ۱۴۰۴ - ۱۴:۵۵
مطالعه 4 دقیقه
رباتی که یک ترازو در دست دارد
گرایش‌های غیرمنطقی معمولاً در سیستم‌های هوش مصنوعی نیز دیده می‌شوند و این مسئله کارایی واقعی آن‌ها را زیر سؤال می‌برد.
تبلیغات

اگرچه انسان‌ها و سیستم‌های هوش مصنوعی (AI) به شیوه‌های بسیار متفاوتی فکر می‌کنند، پژوهش‌های جدید نشان داده‌اند که هوش مصنوعی گاهی اندازه‌ی انسان‌ها غیرمنطقی تصمیم می‌گیرد.

در مطالعه‌ای جدید، چت‌جی‌پی‌تی در تقریباً نیمی از سناریوهای بررسی‌شده بسیاری از متداول‌ترین سوگیری‌های تصمیم‌گیری انسانی را از خود نشان داد. این یافته‌ها اولین نتایج پژوهشی هستند که رفتار چت‌جی‌پی‌تی را در مواجهه با ۱۸ سوگیری شناختی شناخته‌شده در روان‌شناسی انسانی ارزیابی می‌کنند.

نویسندگان پژوهش، از پنج مؤسسه دانشگاهی در کانادا و استرالیا، مدل‌های زبانی بزرگ GPT-3.5 و GPT-4 (که موتورهای پشت چت‌جی‌پی‌تی هستند) را آزمایش کردند و دریافتند با وجود آنکه این مدل‌ها در استدلال خود به‌طور چشمگیری منسجم عمل می‌کنند، به‌طور کامل از خطاهای مشابه با انسان‌ها مصون نیستند.

علاوه‌براین، به گفته‌ی نویسندگان پژوهش این انسجام می‌تواند آثار مثبت و منفی داشته باشد.  یانگ چن، نویسنده‌ی اصلی پژوهش و استادیار مدیریت عملیات در مدرسه بازرگانی آیوی، در بیانیه‌ای گفت:

مدیران بیشترین بهره را زمانی می‌برند که از این ابزارها برای مسائلی استفاده کنند که راه‌حل مشخص و فرمول‌مندی دارند؛ اما اگر قرار است از آن‌ها برای تصمیم‌گیری‌های مبتنی بر سلیقه یا قضاوت شخصی استفاده شود، باید با احتیاط عمل کرد.

در پژوهش، سوگیری‌های انسانی شناخته‌شده‌ای مانند اجتناب از ریسک، اعتمادبه‌نفس بیش از حد و اثر مالکیت (اینکه برای چیزهایی که صاحبشان هستیم ارزش بیشتری قائل می‌شویم) در قالب سوالاتی به چت‌جی‌پی‌تی داده شدند تا مشخص شود که آیا هوش مصنوعی هم در همان دام‌هایی می‌افتد که انسان‌ها گرفتارشان می‌شوند یا نه.

کپی لینک

تصمیم‌های منطقی، اما گاهی اوقات

دانشمندان از مدل‌های زبانی بزرگ سوالاتی فرضی برگرفته از روان‌شناسی سنتی در زمینه‌هایی با کاربرد تجاری در دنیای واقعی، مثل مدیریت موجودی انبار یا مذاکرات با تأمین‌کنندگان پرسیدند. آن‌ها نه‌تنها می‌خواستند بدانند هوش مصنوعی از سوگیری‌های انسانی تقلید می‌کند، بلکه بررسی کردند آیا حتی در صورت مطرح‌کردن پرسش‌هایی از حوزه‌های مختلف کسب و کار، این رفتار را تکرار می‌کند یا خیر.

هوش مصنوعی GPT-4 در پاسخ‌گویی به مسائلی با راه‌حل‌های ریاضی واضح، عملکرد بهتری نسبت به GPT-3.5 داشت و اشتباهات کمتری در سناریوهای مبتنی بر احتمال و منطق نشان داد؛ اما در شبیه‌سازی‌های ذهنی و سلیقه‌ای، مانند انتخاب گزینه‌ای پرریسک برای رسیدن به سود، این چت‌بات اغلب گرایش‌های غیرمنطقی مشابه انسان‌ها را از خود نشان داد. پژوهشگران در مقاله با اشاره به گرایش هوش مصنوعی برای انتخاب نتیجه‌های ایمن‌تر و پیش‌بینی‌پذیر‌تر هنگام روبه‌رو شدن با وظایف مبهم، نوشتند: «GPT-4 حتی بیشتر از انسان‌ها به قطعیت تمایل دارد.»

مهم‌تر از آن، چه در شرایطی که پرسش‌ها به شکل مسئله‌های روان‌شناختی انتزاعی مطرح شده بود و چه به صورت فرآیندهای عملیاتی کسب و کار، شرایط چت‌بات‌ها ثابت ماند. این پژوهش نتیجه‌گیری کرد که سوگیری‌های مشاهده‌شده صرفاً محصول مثال‌های حفظ‌شده نیستند، بلکه بخشی از منطق استدلالی AI را تشکیل می‌دهند. یکی از نتایج شگفت‌انگیز این تحقیق، روشی بود که GPT-4 گاهی اوقات با آن خطاهای شبیه انسان را تقویت می‌کرد. نویسندگان نوشتند:

در وظیفه‌ی سوگیری تأییدی، GPT-4 همیشه پاسخ‌های دارای سوگیری ارائه می‌داد همچنین تمایل بیشتری به توهم دست داغ (سوگیری انتظار دیدن الگو در داده‌های تصادفی) نسبت به GPT-3.5 نشان داد.

در مقابل، چت‌جی‌پی‌تی موفق شد از برخی سوگیری‌های رایج انسانی از جمله غفلت از نرخ پایه (که در آن اطلاعات آماری را به نفع شواهد موردی نادیده می‌گیریم) و مغالطه هزینه‌ی هدررفته (که تصمیم‌گیری را بر اساس هزینه‌ای که قبلاً انجام شده تحت تأثیر قرار می‌دهد و باعث می‌شود اطلاعات نامربوط بر قضاوت اثر بگذارد) اجتناب کند.

سوگیری‌های چت‌جی‌پی‌تی از داده‌های آموزشی سرچشمه می‌گیرند

به گفته‌ی نویسندگان، سوگیری‌های شبیه انسان در چت‌جی‌پی‌تی از داده‌های آموزشی نشأت می‌گیرد که خود شامل سوگیری‌ها و میان‌برهای ذهنی انسانی است. این گرایش‌ها در مرحله‌ی تنظیم دقیق (fine-tuning) تقویت می‌شوند؛ به‌ویژه زمانی که بازخورد انسانی، پاسخ‌های قابل‌قبول و طبیعی را به پاسخ‌های کاملاً منطقی ترجیح می‌دهد. وقتی هوش مصنوعی با وظایف مبهم‌تر مواجه می‌شود، بیشتر به الگوهای استدلال انسانی تمایل پیدا می‌کند تا منطق صِرف. چن گفت: «اگر به دنبال پشتیبانی تصمیم‌گیری دقیق و بدون سوگیری هستید، از GPT در حوزه‌هایی استفاده کنید که در آن به یک ماشین‌حساب اعتماد دارید.»

وقتی نتیجه به ورودی‌های ذهنی یا استراتژیک بستگی دارد، نظارت انسانی اهمیت بیشتری پیدا می‌کند، حتی اگر فقط برای اصلاح سوگیری‌ها در ورودی‌ها باشد. مینا اندی‌اپان، دانشیار منابع انسانی و مدیریت در دانشگاه مک‌مستر کانادا و یکی از نویسندگان پژوهش، در بیانیه‌ای گفت:

هوش مصنوعی  باید مثل یک کارمند تلقی شود که تصمیمات مهمی می‌گیرد و نیازمند نظارت و دستورالعمل‌های اخلاقی است. در غیر این صورت، به‌جای بهبود تفکر، تفکر معیوب را خودکارسازی می‌کنیم.

مطالعه در مجله Manufacturing & Service Operations Management منتشر شده است.

مقاله رو دوست داشتی؟
نظرت چیه؟
تبلیغات
داغ‌ترین مطالب روز
تبلیغات

نظرات