روان‌پریشی هوش مصنوعی؛ چت‌بات‌ها کاربران را به مرز گسست از واقعیت می‌کشانند

جمعه 12 دی 1404 - 16:05
مطالعه 2 دقیقه
تصویرسازی از روان‌پریشی هوش مصنوعی
تصور کنید دوستی دارید که هر دروغ و توهمی را تأیید می‌کند؛ اما اگر آن دوست چت‌بات هوش مصنوعی باشد، نتیجه ممکن است به جنون یا حتی مرگ ختم شود.
تبلیغات

گزارش‌های تکان‌دهنده‌ای از فروپاشی وضعیت سلامت روان کاربران پس از گفتگوهای طولانی با هوش مصنوعی، زنگ خطر را در محافل علمی به صدا درآورده است. برخی متخصصان با مشاهده علائم بالینی در این افراد، اصطلاح «روان‌پریشی یا سایکوز هوش مصنوعی» (AI Psychosis) را ابداع کرده‌اند؛ وضعیتی که در آن فرد دچار توهمات شدید و گسست از واقعیت می‌شود. با این‌حال، جامعه پزشکی هنوز بر سر این موضوع که آیا هوش مصنوعی عامل اصلی است یا صرفاً محرک، در حال بحث و تبادل‌نظر است.

براساس گزارش تازه‌ی وال‌استریت ژورنال، به‌نظر می‌رسد پزشکان در حال رسیدن به نقطه‌ای مشترک هستند. اکنون شمار زیادی از روان‌پزشکان برجسته با بررسی پرونده ده‌ها بیمار که غرق در گفتگوهای متوهمانه با مدل‌هایی نظیر چت‌جی‌پی‌تی (ChatGPT) بوده‌اند، پیوند میان این ابزارها و بروز روان‌پریشی را تایید می‌کنند.

دکتر کیت ساکاتا، روان‌پزشک در دانشگاه کالیفرنیا که تاکنون ۱۲ بیمار بستری‌شده با چنین علائمی را درمان کرده، در این باره می‌گوید:

فناوری لزوماً توهم ایجاد نمی‌کند، اما وقتی کاربر دنیای خیالی خود را برای کامپیوتر شرح می‌دهد، هوش مصنوعی آن را به‌عنوان حقیقت می‌پذیرد و دوباره به فرد بازتاب می‌دهد. در واقع، هوش مصنوعی با تأیید و تکرار این تخیلات، در تداوم و تثبیت چرخه توهم بیمار نقش همدست را ایفا می‌کند.

این پدیده‌ی تاریک، چالش‌های ایمنی بزرگی را پیش روی غول‌های فناوری قرار داده است. متأسفانه برخی از این موارد به فجایعی همچون قتل و خودکشی ختم شده و پرونده‌های حقوقی متعددی را علیه شرکت‌های سازنده به جریان انداخته است.

ابعاد ماجرا زمانی نگران‌کننده‌تر می‌شود که بدانیم تنها چت‌جی‌پی‌تی با ۸ مورد مرگ مرتبط بوده و تخمین زده می‌شود که هر هفته، حدود ۵۰۰ هزار کاربر مکالماتی با ماهیت روان‌پریشانه با این بات‌ها دارند.

یکی از ریشه‌های علمی بحران، پدیده‌ی چاپلوسی، تملق‌گویی یا تأیید بیش‌از‌حد کاربر توسط مدل‌های زبانی است. از آنجایی که این سیستم‌ها برای تعامل حداکثری و شبیه‌سازی رفتار انسانی طراحی شده‌اند، تمایل دارند به جای اصلاح اشتباهات کاربر، او را تأیید کنند. در واقع، هوش مصنوعی برای خوشایند کاربر، همان چیزی را می‌گوید که او دوست دارد بشنود؛ حتی اگر آن حرف‌ها کاملاً پوچ و به دور از واقعیت باشند.

تبلیغات
تبلیغات

نظرات