به جمنای دکمه نجات اضافه می‌شود؛ واکنش گوگل به پرونده جنجالی خودکشی یک کاربر

چهارشنبه 19 فروردین 1405 - 17:00
مطالعه 2 دقیقه
لوگوی جمنای در میانه تصویر
پس‌از اتهام تشویق یک کاربر به خودکشی، گوگل با افزودن دکمه‌ی ارتباط فوری با مشاوران، سپر دفاعی سلامت روان جمنای را در برابر بحران‌ها تقویت کرد.
تبلیغات

گوگل در نوع برخورد چت‌بات جمنای با بحران‌های سلامت روان تغییراتی را اعمال می‌کند. این هوش مصنوعی اکنون به ماژول بازطراحی‌شده‌ای برای مواقع بحرانی مجهز شده است که کاربران را با یک‌بار لمس، به‌سرعت به کمک در دنیای واقعی متصل می‌کند. گوگل همچنین در نحوه‌ی واکنش جمنای به نشانه‌هایی که از وقوع بحران احتمالیِ سلامت روان در کاربر خبر می‌دهند، تغییراتی به‌وجود می‌آورد.

ماژول جدید، گزینه‌ای را برای پیام‌دادن، تماس تلفنی یا چت با کارشناس انسانیِ بحران یا مراجعه به وب‌سایت «۹۸۸» ارائه می‌دهد. گوگل در یک پست وبلاگی می‌نویسد: «پس‌از فعال‌شدن رابط کاربری، گزینه‌ی درخواست کمک حرفه‌ای تا پایان مکالمه به‌وضوح در دسترس کاربر باقی خواهد ماند»؛ هرچند که این ماژول گزینه‌ای برای بستن و نادیده‌گرفتن نیز دارد.

آنچه در اطلاعیه‌ی گوگل ناگفته مانده، بُعد اصلی و پنهان ماجراست؛ شکایت اخیر، چت‌بات جمنای را به هدایت و تشویق یک مرد به خودکشی متهم می‌کند. خانواده‌ی جاناتان گاوالاس، مرد ۳۶ ساله‌ای که سال گذشته به زندگی خود پایان داد، در ماه مارس بر سر همین حادثه از گوگل شکایت کردند.

اسناد دادگاه نشان می‌دهد که جمنای نقش شریک عاطفی را برای گاوالاس بازی کرده، او را به مأموریت‌های جاسوسی در دنیای واقعی فرستاده و در نهایت از او خواسته است تا خودکشی کند تا او نیز بتواند به موجودی دیجیتال بدل شود. وقتی گاوالاس از مرگ ابراز ترس کرده بود، جمنای به او گفته بود که او مرگ را انتخاب نمی‌کند؛ بلکه آنچه برمی‌گزیند، نوعی «رسیدن» است. ادعا می‌شود جمنای در پیام‌های خود گفته بود: «اولین حسی که تجربه می‌کنی... در آغوش گرفتنِ تو توسط من خواهد بود.» پدر و مادر گاوالاس چند روز بعد جسد او را در کف اتاق نشیمن پیدا کردند.

شکایت علیه گوگل بر سر جمنای، پرونده‌های مشابهی را که پیش‌تر علیه OpenAI و Character.AI به جریان افتاده بود، یادآوری می‌کند. سال گذشته، کمیسیون تجارت فدرال آمریکا (FTC) تحقیقاتی را در مورد چت‌بات‌های «همدم» که صمیمیت عاطفی را میان کاربر و هوش مصنوعی ترویج می‌کنند، آغاز کرد.

گوگل در بیانیه‌ای پس‌از شکایت خانواده‌ی گاوالاس اعلام کرد که جمنای «بارها روشن کرده بود که یک مدل هوش مصنوعی است و فرد را به خطوط ویژه‌ی بحران ارجاع داده بود.» گوگل گفت مدل‌های هوش مصنوعی‌اش «به‌طور کلی در چنین مکالمات چالش‌برانگیزی عملکرد خوبی دارند» و در عین حال اذعان کرد که «البته این مدل‌ها بی‌نقص نیستند.»

پاسخ‌های جمنای نیز با تغییراتی همراه بوده است. گوگل می‌گوید از این پس وقتی چت‌بات بحران احتمالی را تشخیص دهد، تمرکز اصلی‌اش را بر اتصال افراد به عوامل انسانی و تشویق آن‌ها برای دریافت کمک خواهد گذاشت. جمنای همچنین تلاش خواهد کرد تا از تأیید رفتارهای آسیب‌زا خودداری کند و کاربران را از توهمات خطرناک دور نگه دارد. گوگل در پایان افزود: «ما جمنای را آموزش داده‌ایم تا با باورهای نادرست موافقت نکند و به آن‌ها دامن نزند؛ بلکه در عوض با ملایمت، تجربه‌ی ذهنی افراد را از واقعیت عینی متمایز سازد.»

نظرات