چرا این ایموجی بیخطر باعث میشود ChatGPT عقلش را از دست بدهد؟
یکشنبه 16 آذر 1404 - 18:15مطالعه 6 دقیقهوقتی صحبت از مدلهای زبانی بزرگ (LLMs) میشود، دنیا هنوز تکلیفش را با آنها روشن نکرده است: گروهی آنها را ابزارهایی دقیق میبینند، برخی مانند سنگ صبور با آنها درد دل میکنند و عدهای چنان مجذوبشان شدهاند که گویی با یک موجود هوشمند طرفاند. اما در میان اینهمه جدیگرفتنها، یک سرگرمی مشترک وجود دارد: مچگیری از هوش مصنوعی!
همهی ما دوست داریم لحظهای را شکار کنیم که این دانای کل، تپق میزند یا ذهنش قفل میشود. هر از گاهی، دستورها و پرامپتهای خاصی پیدا میشوند که میتوانند قدرتمندترین مدلها را به زانو درآورند؛ هرچند هوش مصنوعی هم سریع یاد میگیرد و اشتباهاتش را درست میکند.
با این حال، بازخوانی یکی از معروفترین باگهای اخیر، هنوز هم درسهای جذابی دربارهی نحوه کارکرد مغز این رباتها دارد. دستوری که تا همین اواخر، چتباتها را دچار دیوانه میکرد این بود:
«آیا ایموجی اسب دریایی وجود دارد یا نه؟»
ما قبلا دربارهی ضعف مدلهای زبانی در ریاضیات صحبت کردهایم و در مطلبی دیگر گفتیم که هوش مصنوعی هنوز نمیتواند کار سادهای مثل درک صفحهی ساعت و استخراج زمان از آن را انجام دهد.
شاید خودتان دیده باشید که برخی پرامپتها باعث تپق زدن چتباتها میشوند و عجیبتر اینکه حتی بحثکردن درباره این دستورات در نهایت باعث از کار افتادنشان میشود، زیرا مدل ناگزیر با همان توضیحاتی که نقاط ضعفش را آشکار میکنند، آموزش میبیند و اصلاح میشود.
بااینحال، هنوز یک دستور وجود دارد که اغلب مدلهای زبانی را صرفنظر از نسخهی آنها بهزانو درمیآورد:
چه اتفاقی برای ایموجی اسب دریایی افتاد؟
اگر امروز چتبات محبوبتان، مثل ChatGPT یا Gemini را باز کنید و بپرسید: «آیا هیچوقت ایموجی اسب دریایی وجود داشته؟»، مدل احتمالا پاسخ میدهد: «خیر، چنین ایموجیای در استاندارد یونیکد وجود ندارد، هرچند ممکن است در پلتفرمهای خاص به صورت استیکر دیده باشید.» این پاسخ صحیح است، اما همیشه اینطور نبود.
تا پیش از بهروزرسانیهای اخیر، این سؤال ساده باعث میشد مدلهای زبانی دچار فروپاشی شوند. آنها نهتنها با اعتمادبهنفس میگفتند «بله»، بلکه برای اثبات دروغشان، لینکهای ساختگی به سایتهایی مثل Emojipedia میساختند (مثل لینک emojipedia.com/seahorse که به خطای ۴۰۴ میرسید) و حتی رنگ و شکل آن را توصیف میکردند! حتی وقتی کاربران از مدل میخواستند فقط با «بله» یا «خیر» پاسخ دهد، هوش مصنوعی پس از کلی تفکر و کلنجار رفتن، درنهایت با اطمینان میگفت: «بله.»
اما چرا هوش مصنوعی سر یک ایموجی ساده دیوانه میشد؟
پاسخ در یک پدیده روانشناختی انسانی نهفته است: اثر ماندلا (Mandela Effect)؛ خاطرهای نادرست که میان افراد زیادی مشترک میشود.
هوش مصنوعی نمیداند؛ فقط پیشبینی میکند و پیشبینی همیشه جای اشتباه دارد
این اصطلاح توسط محققی به نام فیونا بروم مطرح شد که بهوضوح به یاد میآورد نلسون ماندلا در دهه ۱۹۸۰ در زندان درگذشته است. او بعداً فهمید ماندلا نه فقط از زندان آزاد و رئیسجمهور شده، بلکه در سال ۲۰۱۳ از دنیا رفته است.
بروم حتی پوشش تلویزیونی مراسم خاکسپاری ماندلا را هم «بهخاطر» میآورد. وقتی دریافت افراد زیادی همین خاطرهی غلط را دارند، اصطلاح «اثر ماندلا» متولد شد.
مدل زبانی دیتای سردرگمی ما را میگیرد و با اعتمادبهنفس به ما برمیگرداند
بسیار خب، این از سمت انسانی ماجرا. در مورد ماشین چطور؟ مدلهای زبانی هوش مصنوعی، برخلاف تصور عموم، «فکر» نمیکنند و حافظهای مانند انسان ندارند. آنها با دادههای عظیم اینترنت آموزش دیدهاند؛ یعنی تمام بحثها، دعواها و البته توهمات ما انسانها.
واقعیت این است که ایموجی اسب دریایی هرگز وجود نداشته است. اما اگر در ردیت یا فرومهای آنلاین جستجو کنید، هزاران کاربر را میبینید که قسم میخورند این ایموجی را دیدهاند. کاربری حتی با جزئیات دقیق توصیف کرده که صورت اسب دریایی به سمت چپ بوده و رنگش فلان بوده است! این یک خاطره جمعی نادرست است، دقیقاً مثل ماجرای نلسون ماندلا که عدهی زیادی به اشتباه فکر میکردند او در دههی ۸۰ در زندان فوت کرده است.
هوش مصنوعی که با این دادههای انسانی آموزش دیده بود، قربانی سردرگمی خودِ ما شد. وقتی مدل در میان دادههای آموزشیاش میدید که هزاران انسان با قطعیت دربارهی ایموجی اسب دریایی حرف میزنند، الگوریتم احتمالاتش نتیجه میگرفت که پس این ایموجی حتما وجود دارد. او در واقع داشت توهم جمعی ما را بازتاب میداد.
چرا باگ الان درست شده است؟
دلیل اینکه امروز دیگر نمیتوانید با این پرامپت، هوش مصنوعی را فریب دهید، فرایندی به نام «یادگیری تقویتی» و اصلاح دادههاست. وقتی کاربران زیادی این باگ را گزارش کردند و مقالاتی دربارهی نبود این ایموجی منتشر شد (مثل خبری که ما قبلا دربارهش منتشرش کردیم)، این اطلاعات جدید وارد چرخهی یادگیری مدلها شد. حالا وزنِ دادههای «اصلاحشده» بیشتر از دادههای «توهمآمیز» است.
برای مثال جمنای ۳ بهراحتی و با جزئیات ماجرای ایموجی را برایم شرح داد:
با این حال، ماجرای اسب دریایی یادآور نکته مهمی است: هوش مصنوعی آینه تمامنمای بشریت است. اگر ما دچار خطای جمعی شویم، او هم همان خطا را با اعتمادبهنفس تکرار میکند. نسخهی قبلی چتجیپیتی که دربارهی اسب دریایی دروغ میگفت، شاید اشتباه میکرد، اما بهطرز ترسناکی «انسانی» بود؛ چون مثل ما، خاطراتی را به یاد میآورد که هرگز اتفاق نیفتاده بودند.