آیا هوش مصنوعی در آینده به درمان‌ روان‌شناختی نیاز پیدا می‌کند

آیا هوش مصنوعی در آینده به درمان‌ روان‌شناختی نیاز پیدا می‌کند

آیا ممکن است در آینده، هوش مصنوعی نیز همانند انسان‌ها به درمان‌های روان شناختی نیاز پیدا کند؟ آیا برای درمان هوش مصنوعی می‌توان از روش‌های انسانی کمک گرفت؟  

احتمالا می‌دانید که در طراحی سیستم‌های مبتنی بر هوش مصنوعی از قدرت هوش و ذهن انسان الگوبرداری شده است. آیا ممکن است همان‌طور که برخی از انسان‌ها از اختلالات مختلف شخصیتی و روان‌تنی رنج می‌برند و نیاز به درمان دارند و گاهی با درمان درست بهبودی برایشان حاصل می‌شود، سیستم‌های مبتنی بر هوش مصنوعی هم دچار اختلالاتی همانند اختلالات شخصیتی در انسان‌ها شوند؟ آیا ممکن است در آینده‌ی نزدیک همان مسایلی که در رفتار برخی انسان‌ها مشاهده می‌کنیم، روزی در هوش مصنوعی هم ببینیم؟ و آیا ممکن است روزی فرا برسد که محققان به فکر درمان اختلالات ناشی از هوش مصنوعی بیافتند؟

چندی پیش محققان MIT یک هوش مصنوعی روانی (Psychopathic AI) به نام نورمن (Norman) طراحی کردند که با الگوریتم‌هایی، شبیه به یک فرد روانی عمل می‌کرد و به چیزی جز قتل و کشتار نمی‌اندیشید. هدف محققان MIT از طراحی نورمن، نشان دادن نیمه‌ی تاریک و خطرناک هوش مصنوعی بود.

محققان دانشگاه ایالتی کانزاس هم مطالعاتی در زمینه‌ی خطرات هوش مصنوعی انجام داده‌اند. آ‌ن‌ها بر این باورند که با توجه به اینکه هوش مصنوعی در حالت بسیار پیچیده رشد می‌کند و در حال توسعه است، این احتمال وجود دارد که با «چالش پیچیدگی» مواجه شویم. چالش پیچیدگی در سیستم‌های مبتنی بر هوش مصنوعی، چیزی شبیه به اختلالات شخصیتی در انسان‌ها است؛ البته با توجه به دهه‌ها تلاش و گستردگی دانش موجود در زمینه‌ی درمان اختلالات شخصیتی در انسان‌ها و کمک به درمان افراد مبتلا به PTSD‌ و افسردگی وبیماری‌های روانی، شاید بتوان مجددا از همان اطلاعات و دانش برای درمان اختلالات و پیچیدگی های سیستم‌های مبتنی بر هوش مصنوعی هم کمک گرفت.

هوش مصنوعی

رفتار درمانی شناختی (CBT) تلاش می‌کند که به‌صورت سیستماتیک، احساسات و رفتارهای ناکارآمد را در انسان‌ها نشانه بگیرد و تغییر بدهد. آیا ممکن است همین روش سیستماتیک برای تغییر رفتار در سیستم‌های مبتنی بر هوش مصنوعی نیز به کار برده شود؟ از آنجایی که چارچوب‌های فکری سیستم‌های مبتنی بر هوش مصنوعی، شباهت‌های بسیاری به چارچوب‌های فکری انسا‌ن‌ها در حین فکر کردن دارد، لذا برای شناسایی سوءرفتار، تشخیص اختلالات هوش مصنوعی و سپس شناسایی سیستمی برای درمان و حل مسائل رفتاری، می‌توان از روش‌های درمان مورد استفاده برای انسان‌ها کمک گرفت. 

برای درمان هوش مصنوعی، محققان دو روش را برای شروع پیشنهاد می‌کنند. اولین روش، «آموزش اصلاح شونده‌» است که کمتر حالت تهاجمی دارد و منطبق بر رفتارشناسی درمانی برای انسان‌ها تبیین شده است. دومین روش که بیشتر به درمان دارویی شباهت دارد، با دستکاری سیگنال‌های پاداش از طریق ابزارهای خارجی، به عنوان راهی برای تغییر رفتار اساسی هوش مصنوعی مورد استفاده قرار می‌گیرد. در مقاله‌ای در همین رابطه نوشته شده است:

هنگامی که اختلالی در عامل هوش مصنوعی رخ می‌دهد، همیشه مجاز به حذف یا بازنشانی عامل نیستیم. 

به‌طور خلاصه نمی‌توانیم با یک بار خاموش و روشن کردن، از بروز اختلال خلاص شویم. با اینکه موارد مطرح شده در این مقوله، تنها به‌صورت خلاصه به نقطه‌ی شروع اختلالات هوش مصنوعی اشاره دارد، اما طرح چنین موضوعاتی بسیار جذاب و هیجان‌انگیز است. هنگامی که شما مقوله‌ای همچون اضطراب را در سیستم مبتنی بر هوش مصنوعی در نظر می‌گیرید، واقعا بررسی آن جالب است. تصور اینکه روزی مجبور شویم با تحلیل‌های روانشناختی فروید به هوش مصنوعی نگاه کنیم و آن را مورد تجزیه و تحلیل قرار دهیم، واقعا کمی دور از ذهن به نظر می‌رسد؛ ولی وقتی موضوعاتی مربوط به آینده‌ی هوش مصنوعی مطرح می‌شود که خبر از برخی اختلالات رفتاری می‌دهد، نمی‌توانیم چنین آینده‌ای را خیالی تصور کنیم. شاید روزی فرا برسد که چنین تجزیه و تحلیل‌های رفتارشناختی روی هوش مصنوعی هم انجام شود و کاربرد داشته باشد.


منبع cnet cnet

از سراسر وب

  دیدگاه
کاراکتر باقی مانده

بیشتر بخوانید