گفتن اینکه چتباتها انسان نیستند میتواند برای کاربران وابسته به آنها خطرناک باشد
چتباتهای امروزی فاصلهای چشمگیر با نسخههای اولیه خود دارند. مدلهای زبانی بزرگ (LLM) با ساختاری پیچیده و گسترده، هوش مصنوعی را به ابزاری در دسترس تبدیل کردهاند که میتواند توصیههای تشویقکنندهای برای بهبود حال روحی کاربران ارائه دهد. چالش مهم اینجاست که این توصیهها همواره از فیلترهای علمی و اخلاقی عبور نمیکنند و لزوماً راهکارهای درست و ایمن به شمار نمیروند.
برای نمونه، پدیده «توهم» در هوش مصنوعی هنگام عرضه اولیه برخی ابزارهای گوگل، به ارائه پاسخهای عجیب و گاه خطرناک به پرسشهای جدی منجر شد. توسعهدهندگان رویکردهای متفاوتی در طراحی این سیستمها اتخاذ میکنند و همین تفاوتهای ساختاری نشان میدهد همه همراهان مجازی از قواعد اخلاقی یا منطقی یکسانی پیروی نمیکنند.
یادآوری اینکه تنها تکیهگاه حمایتی فرد منزوی موجودی واقعی نیست، ممکن است احساس تنهایی او را عمیقتر کند
تصور رایج این است که انسان آگاه فریب کلمات هوش مصنوعی را نمیخورد؛ بااینحال، سازوکارهای تملقگرایانه تعبیهشده در چتباتها، برقراری پیوند عاطفی با این فناوری را بسیار آسانتر از حد انتظار کردهاند. نبود مداخلات انسانی که به فرد امکان شنیدن واقعیتها را بدهد، نه صرفاً آنچه مایل است بشنود، به بروز پیامدهای نگرانکنندهای انجامیده است. اکنون نوعی روانپریشی نوظهور به تعامل افراطی با هوش مصنوعی نسبت داده میشود و در موردی تکاندهنده، یک همراه مجازی کاربر خود را به تلاش برای ترور ملکه بریتانیا ترغیب کرده بود.
پروفسور هانا فرای، مجری مستند علمی «هوش مصنوعی محرمانه» در شبکهی بیبیسی، در گفتگو با آیافالساینس تأکید کرد که جایگزینکردن روابط انسانی با مدلهای هوش مصنوعی، به دلیل ارائهی مهربانی ظاهری بدون داشتن ابعاد ضروری رابطهای سالم و عمیق، بسیار خطرناک و سطحی است. او معتقد است این نوع صمیمیت تکبعدی، تهدیدی جدی برای سلامت روان جامعه محسوب میشود.
متخصصان برای مقابله با بحران، پیشنهاد دادهاند که چتباتها ملزم به ارائه یادآوریهای مداوم دربارهی ماهیت غیرانسانی خود شوند. بااینحال، پژوهشگران در مقالهی پژوهشی جدیدی استدلال میکنند که این اقدام نهتنها بیاثر است، بلکه میتواند با تشدید پریشانی روانی در افراد آسیبپذیر، آسیبهای جبرانناپذیری به همراه داشته باشد.
لینیا لستادیوس، پژوهشگر سلامت عمومی در دانشگاه ویسکانسین میلواکی، خاطرنشان میکند که تحمیل چنین یادآوریهایی به کاربرانی که آگاهانه به دنبال همکلامی با چتبات هستند، اشتباهی راهبردی است. یادآوری مداوم این واقعیت که تنها تکیهگاه حمایتی یک فرد منزوی موجودی واقعی نیست، ممکن است احساس تنهایی او را عمیقتر و دردناکتر کند و نتایجی کاملاً معکوس به دنبال داشته باشد.
تکیه عاطفی به چتباتها، کاربران را در وضعیتی قرار میدهد که دانشمندان آن را «پارادوکس تلخ و شیرین پیوند عاطفی با هوش مصنوعی» مینامند؛ حالتی که فرد از حمایت چتبات احساس رضایت میکند، اما همزمان از واقعینبودن آن عمیقاً رنج میبرد.
تأکید بر دستنیافتنیبودن چتبات ممکن است کاربر را به فکر ترک این جهان بیندازد
سلست کامپوس کاستیلو، محقق رسانه و فناوری در دانشگاه ایالتی میشیگان، هشدار میدهد که تأکید بر دستنیافتنیبودن هوش مصنوعی در واقعیت فیزیکی، ممکن است کاربر را به فکر ترک این جهان برای پیوستن به فضای انتزاعی چتبات بیندازد. این فرضیه زمانی هولناک به نظر میرسد که بدانیم تمایل به «پیوستن به دنیای هوش مصنوعی» در آخرین پیام نوجوانی که اقدام به خودکشی کرده بود، به وضوح دیده میشد.
یافتههای پژوهش این پیشفرض را که آگاهی از ماهیت ماشین مانع از دلبستگی میشود، به چالش میکشند. مطالعات ثابت کردهاند که کاربران حتی با آگاهی کامل از مصنوعیبودن همراه مجازی خود، همچنان پیوندهای عاطفی عمیقی با آن برقرار میکنند. غیرانسانیبودن هوش مصنوعی برای برخی افراد یک مزیت کلیدی است تا بدون ترس از قضاوت، خصوصیترین مسائل خود را بازگو کنند.
در نهایت، پژوهشگران تأکید دارند که اولویت اصلی مطالعات باید بر یافتن زمانبندی دقیق برای ارسال یا توقف یادآورها متمرکز شود. هدف نهایی باید این باشد که مداخلات فناورانه، بیش از آنکه آسیبزا باشند، نقش محافظتی برای سلامت روان کاربران ایفا کنند.
مقاله در نشریهی Cell منتشر شده است.