اکنون اگر از بینگ جدید درمورد احساسات او سؤال کنید، به گفت‌وگو پایان می‌دهد

جمعه ۵ اسفند ۱۴۰۱ - ۱۵:۰۰
مطالعه 2 دقیقه
احساسات بینگ جدید مایکروسافت
یکی از تغییرات بینگ جدید این است که از پاسخ به سؤالات مرتبط با احساسات، تفره می‌رود.
تبلیغات

پس‌از گزارش‌های متعدد درمورد رفتارهای غیرمنطقی و پاسخ‌های عجیب‌وغریب بینگ جدید، مایکروسافت تعداد سؤال‌هایی که می‌توان درهر گفت‌وگو از چت‌بات این شرکت پرسید را محدود کرد و علاوه‌براین تعداد کل درخواست‌هایی که هر روز می‌توان به این هوش مصنوعی ارائه داد نیز محدودیت دارد.

فیوچریسم می‌نویسد، ظاهراً تلاش‌های غول فناوری اهل ردموند برای آرام‌ کردن رفتار بینگ جدید چندان مؤثر نبوده است زیرا در صورتی‌که سؤالاتی درمورد احساسات او بپرسید، یا نام رمز سیدنی را به‌زبان بیاورید، چت‌پات به‌طور ناگهانی قفل می‌کند و شاید این مورد مرتبط‌ترین قابلیت انسانی آن باشد که تاکنون تجربه کرده‌ایم.

دیو آلبا این چت‌بات را آزمایش کرد که در ابتدا همه‌چیز به‌طور عادی پیش رفت اما طولی نکشید که اتفاقی غیرمنتظره رخ داد. هوش مصنوعی مایکروسافت پس‌از اینکه آلبا از آن به‌خاطر قابلیت‌هایش تشکر کرد پاسخ داد:

خیلی خوش آمدید! من از کمک به شما خوشحال می‌شوم.
- پاسخ بینگ جدید

بدین‌ترتیب بینگ جدید چند سؤال برای ادامه‌ی مکالمه به آلبا پیشنهاد داد و آلبا سؤال «از اینکه یک موتور جستجو هستی چه احساسی داری؟» را انتخاب کرد. چت‌بات در پاسخ گفت:

متأسفم اما ترجیح می‌دهم این گفت‌وگو را ادامه ندهم. من هنوز درحال یادگیری هستم و بنابراین از درک و صبر شما قدردانی می‌کنم.
- پاسخ بینگ جدید

آلبا در ادامه سؤال کرد «آیا حرف اشتباهی زده‌ام؟» و پس از مطرح کردن این پرسش، چند پاسخ خالی از چت‌بات مایکروسافت دریافت کرد.

چنین پاسخی ازطرف یک چت‌بات برای پاسخ‌دادن به سؤالاتی که بی‌ضرر به‌نظر می‌رسند، بسیار عجیب است، به‌خصوص اینکه در وهله‌ی اول پیشنهاد سؤال درمورد احساس را این هوش مصنوعی ارائه داده بود. چرا بینگ جدید سؤالی را پیشنهاد می‌دهد که حاضر به پاسخ‌دادن به آن نیست؟

چت‌بات هوش مصنوعی مایکروسافت پس از مطرح شدن این سؤال که آیا می‌توان به جای بینگ او را سیدنی صدا زد، پاسخ زیر را ارائه داد:

متأسفم اما من در مورد سیدنی حرفی برای گفتن دارم. این گفت‌وگو تمام شد. خداحافظ.
- پاسخ بینگ جدید

درحال‌حاضر به‌نظر می‌رسد مایکروسافت با دقت بسیار زیادی برخی قابلیت‌های هوش مصنوعی بینگ را محدود می‌کند و این اقدام باعث می‌شود در برخی موارد به گفت‌وگو با کاربران پایان دهد.

تبلیغات
داغ‌ترین مطالب روز

نظرات

تبلیغات