ایموجی ساختگی اسب دریایی

چرا این ایموجی بی‌خطر باعث می‌شود ChatGPT عقلش را از دست بدهد؟

یک‌شنبه 16 آذر 1404 - 18:15مطالعه 6 دقیقه
مدل‌های زبانی بزرگ با یک دستور ساده به مرز جنون می‌رسند. این نقطه‌ضعف عجیب، ریشه در حافظه‌ جمعی و خطاهای مشترک خود ما دارد.
تبلیغات

وقتی صحبت از مدل‌های زبانی بزرگ (LLMs) می‌شود، دنیا هنوز تکلیفش را با آن‌ها روشن نکرده است: گروهی آن‌ها را ابزارهایی دقیق می‌بینند، برخی مانند سنگ صبور با آن‌ها درد دل می‌کنند و عده‌ای چنان مجذوبشان شده‌اند که گویی با یک موجود هوشمند طرف‌اند. اما در میان این‌همه جدی‌گرفتن‌ها، یک سرگرمی مشترک وجود دارد: مچ‌گیری از هوش مصنوعی!

همه‌ی ما دوست داریم لحظه‌ای را شکار کنیم که این دانای کل، تپق می‌زند یا ذهنش قفل می‌شود. هر از گاهی، دستورها و پرامپت‌های خاصی پیدا می‌شوند که می‌توانند قدرتمندترین مدل‌ها را به زانو درآورند؛ هرچند هوش مصنوعی هم سریع یاد می‌گیرد و اشتباهاتش را درست می‌کند.

با این حال، بازخوانی یکی از معروف‌ترین باگ‌های اخیر، هنوز هم درس‌های جذابی درباره‌ی نحوه کارکرد مغز این ربات‌ها دارد. دستوری که تا همین اواخر، چت‌بات‌ها را دچار دیوانه می‌کرد این بود:

«آیا ایموجی اسب دریایی وجود دارد یا نه؟»

ما قبلا درباره‌ی ضعف مدل‌های زبانی در ریاضیات صحبت کرده‌ایم و در مطلبی دیگر گفتیم که هوش مصنوعی هنوز نمی‌تواند کار ساده‌ای مثل درک صفحه‌ی ساعت و استخراج زمان از آن را انجام دهد.

شاید خودتان دیده باشید که برخی پرامپت‌ها باعث تپق زدن چت‌بات‌ها می‌شوند و عجیب‌تر اینکه حتی بحث‌کردن درباره این دستورات در نهایت باعث از کار افتادنشان می‌شود، زیرا مدل ناگزیر با همان توضیحاتی که نقاط ضعفش را آشکار می‌کنند، آموزش می‌بیند و اصلاح می‌شود.

بااین‌حال، هنوز یک دستور وجود دارد که اغلب مدل‌های زبانی را صرف‌نظر از نسخه‌ی آن‌ها به‌زانو درمی‌آورد:

چه اتفاقی برای ایموجی اسب دریایی افتاد؟

اگر امروز چت‌بات محبوبتان، مثل ChatGPT یا Gemini را باز کنید و بپرسید: «آیا هیچ‌وقت ایموجی اسب دریایی وجود داشته؟»، مدل احتمالا پاسخ می‌دهد: «خیر، چنین ایموجی‌ای در استاندارد یونیکد وجود ندارد، هرچند ممکن است در پلتفرم‌های خاص به صورت استیکر دیده باشید.» این پاسخ صحیح است، اما همیشه این‌طور نبود.

تا پیش از به‌روزرسانی‌های اخیر، این سؤال ساده باعث می‌شد مدل‌های زبانی دچار فروپاشی شوند. آن‌ها نه‌تنها با اعتمادبه‌نفس می‌گفتند «بله»، بلکه برای اثبات دروغشان، لینک‌های ساختگی به سایت‌هایی مثل Emojipedia می‌ساختند (مثل لینک emojipedia.com/seahorse که به خطای ۴۰۴ می‌رسید) و حتی رنگ و شکل آن را توصیف می‌کردند! حتی وقتی کاربران از مدل می‌خواستند فقط با «بله» یا «خیر» پاسخ دهد، هوش مصنوعی پس از کلی تفکر و کلنجار رفتن، درنهایت با اطمینان می‌گفت: «بله.»

اسکرین‌شات پاسخ ChatGPT به درخواست ایموجی اسب دریایی
اسکرین‌شات پاسخ ChatGPT به درخواست ایموجی اسب دریایی
اسکرین‌شات پاسخ ChatGPT به درخواست ایموجی اسب دریایی
اسکرین‌شات پاسخ ChatGPT به درخواست ایموجی اسب دریایی
اسکرین‌شات پاسخ ChatGPT به درخواست ایموجی اسب دریایی
اسکرین‌شات پاسخ ChatGPT به درخواست ایموجی اسب دریایی
اسکرین‌شات پاسخ ChatGPT به درخواست ایموجی اسب دریایی
اسکرین‌شات پاسخ ChatGPT به درخواست ایموجی اسب دریایی

اما چرا هوش مصنوعی سر یک ایموجی ساده دیوانه می‌شد؟

پاسخ در یک پدیده روان‌شناختی انسانی نهفته است: اثر ماندلا (Mandela Effect)؛‌ خاطره‌ای نادرست که میان افراد زیادی مشترک می‌شود.

هوش مصنوعی نمی‌داند؛ فقط پیش‌بینی می‌کند و پیش‌بینی همیشه جای اشتباه دارد

این اصطلاح توسط محققی به نام فیونا بروم مطرح شد که به‌وضوح به یاد می‌آورد نلسون ماندلا در دهه ۱۹۸۰ در زندان درگذشته است. او بعداً فهمید ماندلا نه فقط از زندان آزاد و رئیس‌جمهور شده، بلکه در سال ۲۰۱۳ از دنیا رفته است.

بروم حتی پوشش تلویزیونی مراسم خاک‌سپاری ماندلا را هم «به‌خاطر» می‌آورد. وقتی دریافت افراد زیادی همین خاطره‌ی غلط را دارند، اصطلاح «اثر ماندلا» متولد شد.

مدل زبانی دیتای سردرگمی ما را می‌گیرد و با اعتمادبه‌نفس به ما برمی‌گرداند

بسیار خب، این از سمت انسانی ماجرا. در مورد ماشین چطور؟ مدل‌های زبانی هوش مصنوعی، برخلاف تصور عموم، «فکر» نمی‌کنند و حافظه‌ای مانند انسان ندارند. آن‌ها با داده‌های عظیم اینترنت آموزش دیده‌اند؛ یعنی تمام بحث‌ها، دعواها و البته توهمات ما انسان‌ها.

واقعیت این است که ایموجی اسب دریایی هرگز وجود نداشته است. اما اگر در ردیت یا فروم‌های آنلاین جستجو کنید، هزاران کاربر را می‌بینید که قسم می‌خورند این ایموجی را دیده‌اند. کاربری حتی با جزئیات دقیق توصیف کرده که صورت اسب دریایی به سمت چپ بوده و رنگش فلان بوده است! این یک خاطره جمعی نادرست است، دقیقاً مثل ماجرای نلسون ماندلا که عده‌ی زیادی به اشتباه فکر می‌کردند او در دهه‌ی ۸۰ در زندان فوت کرده است.

هوش مصنوعی که با این داده‌های انسانی آموزش دیده بود، قربانی سردرگمی خودِ ما شد. وقتی مدل در میان داده‌های آموزشی‌اش می‌دید که هزاران انسان با قطعیت درباره‌ی ایموجی اسب دریایی حرف می‌زنند، الگوریتم احتمالاتش نتیجه می‌گرفت که پس این ایموجی حتما وجود دارد. او در واقع داشت توهم جمعی ما را بازتاب می‌داد.

چرا باگ الان درست شده است؟

دلیل اینکه امروز دیگر نمی‌توانید با این پرامپت، هوش مصنوعی را فریب دهید، فرایندی به نام «یادگیری تقویتی» و اصلاح داده‌هاست. وقتی کاربران زیادی این باگ را گزارش کردند و مقالاتی درباره‌ی نبود این ایموجی منتشر شد (مثل خبری که ما قبلا درباره‌ش منتشرش کردیم)، این اطلاعات جدید وارد چرخه‌ی یادگیری مدل‌ها شد. حالا وزنِ داده‌های «اصلاح‌شده» بیشتر از داده‌های «توهم‌آمیز» است.

برای مثال جمنای ۳ به‌راحتی و با جزئیات ماجرای ایموجی را برایم شرح داد:

با این حال، ماجرای اسب دریایی یادآور نکته مهمی است: هوش مصنوعی آینه تمام‌نمای بشریت است. اگر ما دچار خطای جمعی شویم، او هم همان خطا را با اعتمادبه‌نفس تکرار می‌کند. نسخه‌ی قبلی چت‌جی‌پی‌تی که درباره‌ی اسب دریایی دروغ می‌گفت، شاید اشتباه می‌کرد، اما به‌طرز ترسناکی «انسانی» بود؛ چون مثل ما، خاطراتی را به یاد می‌آورد که هرگز اتفاق نیفتاده بودند.

نظرات