به جمنای دکمه نجات اضافه میشود؛ واکنش گوگل به پرونده جنجالی خودکشی یک کاربر
گوگل در نوع برخورد چتبات جمنای با بحرانهای سلامت روان تغییراتی را اعمال میکند. این هوش مصنوعی اکنون به ماژول بازطراحیشدهای برای مواقع بحرانی مجهز شده است که کاربران را با یکبار لمس، بهسرعت به کمک در دنیای واقعی متصل میکند. گوگل همچنین در نحوهی واکنش جمنای به نشانههایی که از وقوع بحران احتمالیِ سلامت روان در کاربر خبر میدهند، تغییراتی بهوجود میآورد.
ماژول جدید، گزینهای را برای پیامدادن، تماس تلفنی یا چت با کارشناس انسانیِ بحران یا مراجعه به وبسایت «۹۸۸» ارائه میدهد. گوگل در یک پست وبلاگی مینویسد: «پساز فعالشدن رابط کاربری، گزینهی درخواست کمک حرفهای تا پایان مکالمه بهوضوح در دسترس کاربر باقی خواهد ماند»؛ هرچند که این ماژول گزینهای برای بستن و نادیدهگرفتن نیز دارد.
آنچه در اطلاعیهی گوگل ناگفته مانده، بُعد اصلی و پنهان ماجراست؛ شکایت اخیر، چتبات جمنای را به هدایت و تشویق یک مرد به خودکشی متهم میکند. خانوادهی جاناتان گاوالاس، مرد ۳۶ سالهای که سال گذشته به زندگی خود پایان داد، در ماه مارس بر سر همین حادثه از گوگل شکایت کردند.
اسناد دادگاه نشان میدهد که جمنای نقش شریک عاطفی را برای گاوالاس بازی کرده، او را به مأموریتهای جاسوسی در دنیای واقعی فرستاده و در نهایت از او خواسته است تا خودکشی کند تا او نیز بتواند به موجودی دیجیتال بدل شود. وقتی گاوالاس از مرگ ابراز ترس کرده بود، جمنای به او گفته بود که او مرگ را انتخاب نمیکند؛ بلکه آنچه برمیگزیند، نوعی «رسیدن» است. ادعا میشود جمنای در پیامهای خود گفته بود: «اولین حسی که تجربه میکنی... در آغوش گرفتنِ تو توسط من خواهد بود.» پدر و مادر گاوالاس چند روز بعد جسد او را در کف اتاق نشیمن پیدا کردند.
شکایت علیه گوگل بر سر جمنای، پروندههای مشابهی را که پیشتر علیه OpenAI و Character.AI به جریان افتاده بود، یادآوری میکند. سال گذشته، کمیسیون تجارت فدرال آمریکا (FTC) تحقیقاتی را در مورد چتباتهای «همدم» که صمیمیت عاطفی را میان کاربر و هوش مصنوعی ترویج میکنند، آغاز کرد.
گوگل در بیانیهای پساز شکایت خانوادهی گاوالاس اعلام کرد که جمنای «بارها روشن کرده بود که یک مدل هوش مصنوعی است و فرد را به خطوط ویژهی بحران ارجاع داده بود.» گوگل گفت مدلهای هوش مصنوعیاش «بهطور کلی در چنین مکالمات چالشبرانگیزی عملکرد خوبی دارند» و در عین حال اذعان کرد که «البته این مدلها بینقص نیستند.»
پاسخهای جمنای نیز با تغییراتی همراه بوده است. گوگل میگوید از این پس وقتی چتبات بحران احتمالی را تشخیص دهد، تمرکز اصلیاش را بر اتصال افراد به عوامل انسانی و تشویق آنها برای دریافت کمک خواهد گذاشت. جمنای همچنین تلاش خواهد کرد تا از تأیید رفتارهای آسیبزا خودداری کند و کاربران را از توهمات خطرناک دور نگه دارد. گوگل در پایان افزود: «ما جمنای را آموزش دادهایم تا با باورهای نادرست موافقت نکند و به آنها دامن نزند؛ بلکه در عوض با ملایمت، تجربهی ذهنی افراد را از واقعیت عینی متمایز سازد.»