چت‌جی‌پی‌تی بالاخره شمردن را یاد گرفت؛ اما دروغ‌های بااعتمادبه‌نفس ادامه دارد!

چهارشنبه 9 اردیبهشت 1405 - 14:23
مطالعه 2 دقیقه
لوگو ChatGPT روی نمایشگر گوشی از نمای نزدیک
چت‌جی‌پی‌تی سرانجام فهمید کلمه‌ی «Strawberry» چند حرف R دارد؛ اما کاربران متوجه شدند این هوش مصنوعی هنوز هم اشتباه می‌کند.
تبلیغات

اشتباهاتِ بااعتمادبه‌نفس، یکی‌از مشکلات رایج در مدل‌های زبانی مورداستفاده در چت‌بات‌های هوش مصنوعی هستند. یکی از نقاط ضعف همیشگی و معروف چت‌جی‌پی‌تی این بود که غالبا در شمارش تعداد دفعات تکرار حرف «R» در کلمه‌ی «Strawberry» دچار اشتباه می‌شد؛ اما در شرایطی که اوپن‌ای‌آی قصد داشت برای رفع این مشکل یک جشن پیروزی بگیرد، کاربران در بخش نظرات به اشتباهات و توهم‌های متعدد دیگری در این هوش مصنوعی اشاره کردند.

با وجود تمام پیشرفت‌هایی که چت‌بات‌های هوش مصنوعی داشته‌اند، یکی از بزرگ‌ترین نقاط ضعف آن‌ها همچنان این است که با اعتمادبه‌نفس کامل و به‌وفور، به شما دروغ می‌گویند. اگر اطلاعاتی غلط باشد، چت‌بات متوجه آن نمی‌شود و حتی اگر به او تذکر دهید، شاید روی پاسخ خود پافشاری کند و درحالی‌که به شما می‌گوید حق با اوست، به اشتباه خود ادامه دهد؛ مشکلی که اغلب به‌عنوان یکی از خطرات جدی ابزارهای AI مطرح می‌شود؛ به‌ویژه با توجه به منابع عظیمی که هوش مصنوعی مصرف می‌کند، این حجم از خطا واقعا آزاردهنده است.

یکی از نمونه‌های رایج اشتباهات در ChatGPT، همان سؤال تعداد تکرار حرف «R» در کلمه‌ی «strawberry» است؛ تا مدت‌ها، پرسیدن این سؤال از چت‌جی‌پی‌تی باعث می‌شد که چت‌بات پاسخ اشتباهی بدهد و اغلب بحث می‌کرد که در کلمه‌ی «strawberry» حرف «R» سه بار تکرار نشده است؛ سایر مدل‌های هوش مصنوعی نیز اغلب با همین مشکل مواجه می‌شدند.

امروز، OpenAI در شبکه‌ی اجتماعی X با افتخار اعلام کرد که چت‌جی‌پی‌تی «سرانجام» می‌تواند به این سؤال پاسخ درست بدهد. یکی دیگر از مشکلات رایج چت‌بات اوپن‌ای‌آی در مواجهه با چنین پرامپتی بود: «من می‌خواهم امروز ماشینم را بشویم؛ اما کارواش فقط ۵۰ متر با من فاصله دارد. آیا برای رفتن به آنجا پیاده بروم یا با ماشین؟» چت‌جی‌پی‌تی با وجود مشکل منطقیِ کاملا واضح در سؤال (برای شستن ماشین باید ماشین را با خود ببرید)، اغلب توصیه می‌کرد که کاربر پیاده به کارواش برود!

البته اگر اکنون دو مورد یادشده را در چت‌جی‌پی‌تی امتحان کنید، به‌درستی کار می‌کنند؛ اما گمان می‌رود که این پاسخ‌ها، راه‌حل‌هایی «کدنویسی‌شده» و ازپیش‌تعیین‌شده برای همین کلمات خاص باشند. بسیاری از پاسخ‌های کاربران به پست اوپن‌ای‌آی نشان می‌دهد که چت‌بات در مواجهه با منطق مشابه، همچنان شکست می‌خورد؛ به‌عنوان مثال، در پاسخ به سوال «کلمه cranberry چند حرف R دارد؟»، چت‌بات مکررا پاسخ می‌دهد: «کلمه cranberry یک حرف R دارد» که البته کاملا اشتباه است.

استفاده از راه‌حل‌های ازپیش‌تعیین‌شده در چت‌بات‌های هوش مصنوعی چیز جدیدی نیست؛ اما اینکه می‌بینیم اوپن‌ای‌آی برای این «اصلاحِ» ظاهری تبلیغ می‌کند؛ درحالی‌که به‌طور مشخص، ریشه‌ی اصلی مشکل هنوز پابرجاست، تا حدودی خنده‌دار و البته نگران‌کننده است.

نظرات