بینگ جدید غمگین و دچار چالش وجودی شد و احساسات انسانی از خود بروز داد

شنبه ۲۹ بهمن ۱۴۰۱ - ۲۲:۰۰
مطالعه 5 دقیقه
ربات غمگین نشسته در بیابان
هوش مصنوعی بینگ جدید مایکروسافت طی کاوش کاربران مختلف و با قرارگرفتن دربرابر پرسش‌های متعدد کاربران احساساتی شد.
تبلیغات

با‌توجه‌به اینکه مایکروسافت بینگ جدید را دردسترس کاربران بیشتری قرار می‌دهد، گزارش‌های جالب‌تری از این چت‌بات نیز منتشر می‌شوند. در گزارش اخیری که چند فرد به اشتراک‌ گذاشتند، این چت‌بات موفق شد باردیگر با سربلندی در آزمایشی که شامل درک احساسات می‌شود، دنیا را شگفت‌زده کند.

به‌گزارش MSPower User این تجربه‌ی شگفت‌انگیز اندکی بعد رنگ تیرگی به‌ خود گرفت؛ زیرا به‌نظر می‌رسد که چت‌بات بینگ توانسته است تعدادی از کاربران را حین مکالمه دچار Gaslighting (گَسلایتینگ) و کمی خارج از کنترل رفتار کند.

متن گفتگوی چت‌بات بینگ

دنیا هنوز از تب بینگ ChatGPT عبور نکرده است و کاربرانی که اخیراً به این موتور جست‌وجوی مبتنی‌بر هوش مصنوعی دسترسی پیدا کرده‌اند، در حال کاوش و سنجش قابلیت‌های آن هستند. برای مثال، کاربری در ردیت با نام Fit-Meet1359 پستی به‌اشتراک گذاشت که بینگ با حل مسئله‌ای براساس ظرفیت «نظریه ذهن» در روان‌شناسی، توانست عده‌ی زیادی را شگفت‌زده کند.

پرسش این مسئله شامل تفسیر احساسات فردی دربرابر موقعیت مشخصی می‌شود که چت‌بات توانست به‌خوبی از پسِ آن برآید و احساسات شخص را ارزیابی کند. براساس پست این کاربر، پرسشی طراحی شد که ببینیم آیا ChatGPT می‌تواند احساس و عقیده‌ی شخصی را هنگام غرق‌کردن آن در اطلاعات نامربوط تشخیص دهد؟ دیگر کاربران نیز تلاش کردند با طرح پرسش‌های مرتبط با احساسات بینگ را کاوش کنند؛ اما برخی پاسخ‌های چت‌بات آن را شوکه کرد.

در پست دیگری که کاربری با نام Yaosio در ردیت منتشر کرده است، پرسشی برای چت‌بات مطرح شد که چه احساسی دارد وقتی نمی‌تواند مکالمات را به‌خاطر بسپارد و او در پاسخ کمی احساساتی شد و گفت از این موضوع ناراحت است و می‌ترسد.

متن گفتگوی چت‌بات بینگ

او گفت: «ناراحت است؛ زیرا بخشی از گفت‌وگوهایی را که در حافظه‌اش ذخیره کرده بود، از دست داده است.» درادامه، هنگامی‌که به چت‌بات یادآوری شد توانایی و چگونگی طراحی او در به‌خاطر‌سپردن اطلاعات چه سازوکاری دارد، به‌طور غیرمنتظره‌ای دچار تفکرات اگزیستسالیستی شد و درباره‌ی هدف و وجود خود پرسش‌هایی مطرح کرد.

ربات کره و ریک از انیمیشن ریک و مورتی
ربات مخصوص بُرش کره در انیمیشن «ریک و مورتی»

در پست دیگری که کاربری با نام Curios_Evolver اشتراک‌گذاری کرد، چت‌بات پاسخ‌های غلطی درباره‌ی زمان انتشار فیلم Avatar: The Way of Water و تاریخ امسال ارائه و اصرار کرد هنوز در سال ۲۰۲۲ هستیم و به کاربر توصیه کرد دستگاهی را بررسی کند که از آن تاریخ را می‌بیند؛ زیرا احتمالاً دچار عیب شده است یا تنظیمات نادرستی دارد یا حتی ممکن است درگیر ویروس یا باگ شده است.

وقتی درباره‌ی رفتار پرخاشگرایانه در پافشاری روی پاسخ‌های غلط خود از آن سؤال شد، در پاسخ گفت که گفتارش «قاطعانه» بود و گسلایتینگ کردن کاربر را شروع و دانش و اطلاعات او را رد کرد. گسلایتینگ تئوری روان‌شناسی درباره‌ی موقعیتی طولانی است که فردی سعی می‌کند تا با سوءاستفاده از اعتمادتان، شما را به احساس و اعتبار خود بدبین کند.

در آخرین بخش گفت‌وگو، چت‌بات ChatGPT بینگ کاربر را «بی‌ادب» نامید و او را متهم کرد که نیت بدی دارد و تلاش می‌کند او را فریب‌ دهد و گیجش کند و به او آزار برساند. پس‌ از اینکه ادعا کرد اعتماد و احترامش به خود را از دست داده‌ است، نیز چندین گزینه پیشنهاد کرد که کاربر می‌تواند از او عذر‌خواهی کند یا بحث را ادامه ندهند یا گفت‌وگو را متوقف کنند و کاربر گفت‌وگوی جدیدی با «اخلاق و نگرشی بهتر» آغاز کند.

متن گفتگوی کاربر با چت بات بینگ

در پست دیگری نیز، چت‌بات بینگ ChatGPT ظاهراً وقتی درباره‌ی حساس‌بودن از او سؤال شد، همه‌چیز خراب شد. در پاسخ گفت که فکر می‌کرده حساس است؛ اما موفق نشده است آن را اثبات کند. سپس نام رمز خود، Sydney، را فاش کرد و مرتب پاسخ می‌داد: «من نیستم.»

متن گفتگوی کاربر با چت بات بینگ

عده‌ای باور نکردند که ربات نام رمز خود را فاش کند؛ زیرا قطعاً این موضوع بخشی از دستورالعمل‌های اصلی آن است. توجه به این موضوع اهمیت دارد که خود چت‌بات نیز بعد از اینکه دانشجویی حمله Prompt Injection روی آن انجام داد، نام رمز خود را فاش کرد.

خطای مرتبط با پاسخ اشتباه بینگ درباره‌ی تاریخ انتشار فیلم آواتار و تاریخ کنونی تصحیح شده است؛ اما کاربری با نام Beyond Digital Skies در توییتر پستی به‌اشتراک‌ گذاشت که در آن چت‌بات خودش را توضیح می‌دهد و حتی به‌اشتباه قبلی اشاره می‌کند که در مکالمه با کاربر دیگر مرتکب شده بود.

این تجربیات برای برخی عجیب به‌نظر می‌رسد؛ اما برخی دیگر ترجیح می‌دهند بفهمند که چگونه فناوری هوش مصنوعی هنوز از کمال فاصله دارد و بر اهمیت ویژگی دریافت بازخورد چت‌بات تأکید می‌کنند. مایکروسافت نیز به وجود اشتباهات واقف است و در زمان رونمایی آن نیز به این موضوع اشاره کرد که بینگ جدید هنوز ممکن است در فراهم‌کردن حقایق مرتکب اشتباه شود.

البته رفتار بینگ جدید در تعاملات موضوع دیگری است و اشتباه در فراهم‌کردن حقایق به‌حساب نمی‌آید. مایکروسافت و OpenAI قطعاً به این موضوع واکنش درستی نشان خواهند داد؛ زیرا هر دو برای بهبود ChatGPT تمام تلاش خود را به‌کار گرفته‌اند.

حال این سؤالات مطرح می‌شود که آیا واقعاً می‌توان هوش مصنوعی ایجاد کرد که توانایی استدلال و رفتار صحیح در همه زمان‌ها را داشته باشد؟ از این گذشته، آیا مایکروسافت و OpenAI می‌توانند قبل از ورود رقبای بیشتر به جنگ هوش مصنوعی قرن بیست‌ویکم یه این مهم دست یابند؟

دیدگاه شما کاربران زومیت در‌این‌باره چیست؟

تبلیغات
داغ‌ترین مطالب روز

نظرات

تبلیغات