طرح انتزاعی هوش مصنوعی از اسپین‌گلس

اسپین‌گلس؛ چگونه یک ماده «بی‌کاربرد» به هوش مصنوعی حافظه انسانی داد؟

دوشنبه 30 تیر 1404
مطالعه 19 دقیقه
چطور یک آلیاژ فلزی ظاهرا بی‌کاربرد به‌نام اسپین‌گلس به قلب الگوریتم‌هایی مانند ChatGPT و میدجرنی که دنیای ما را دگرگون کرده‌اند، نفوذ کرد؟
تبلیغات

باورش سخت است، اما در تاریخ علم، گاهی بی‌کاربردترین پدیده‌ها، الهام‌بخش بزرگ‌ترین جهش‌های نظری بوده‌اند. اسپین‌گلس‌ها (Spin Glass) یکی از همین نمونه‌های اسرارآمیز هستند؛ موادی که نه شیشه‌اند، نه شفاف، بلکه معمولاً از آلیاژهای فلزی ساخته می‌شوند و رفتاری بسیار پیچیده، ناپایدار و گمراه‌کننده از خود نشان می‌دهند.

خلاصه پادکستی مقاله

ساخته‌شده با هوش مصنوعی

در ظاهر، اسپین‌گلس‌ها هیچ کاربرد عملی‌ای نداشتند، اما درست در همین پیچیدگی‌ها، جرقه‌ی یکی از بنیادی‌ترین تحولات دنیای علم زده شد و مسیر دستیابی به هوش مصنوعی مدرن را هموار کرد. نظریه‌هایی که برای درک رفتار عجیب این مواد مطرح شدند، بعدها در طراحی الگوریتم‌هایی به‌کار رفتند که امروزه در قلب پلتفرم‌های هوش مصنوعی مانند چت‌جی‌پی‌تی، میدجرنی و جمنای می‌تپند.

انقلابی در مفهوم حافظه: شبکه هاپفیلد

در سال ۱۹۸۲، فیزیکدان برجسته‌ی آمریکایی به‌نام جان هاپفیلد تصمیم گرفت مفهوم حافظه را نه با رویکرد روانشناسی، بلکه با زبان دقیق و ریاضی‌محور فیزیک آماری بازتعریف کند. او شبکه‌ای از نورون‌های دیجیتال طراحی کرد که با الهام از رفتار اسپین‌گلس‌ها، قادر بود الگوها را ذخیره و در زمان مناسب بازیابی کند. این مدل، که بعدها با عنوان شبکه‌ی هاپفیلد شناخته شد، بر پایه‌ی یکی از ساده‌ترین اصول فیزیک بنا شده بود: هر سیستم پیچیده تمایل دارد انرژی‌اش را به کمترین سطح ممکن برساند.

در مدل هاپفیلد، حافظه دیگر به شکل سنتی‌اش، یعنی ذخیره‌سازی اطلاعات در آدرس‌های مشخص، تعریف نمی‌شود. بلکه هر خاطره، به‌صورت الگویی پایدار در میان فضای گسترده‌ای از حالت‌های ممکن شبکه ذخیره می‌شود؛ الگویی که متناظر با نقطه‌ای کمینه در یک منظره‌ی انرژی پیچیده است. این منظره را می‌توان مانند یک نقشه‌ی کوهستانی تصور کرد که دره‌هایش همان خاطرات هستند و هر نقطه از نقشه، نماینده‌ی یک حالت ممکن از نورون‌های شبکه است.

وقتی شبکه وارد یک حالت نویزی یا ناقص می‌شود، مثلاً وقتی بخشی از الگوی اولیه فراموش شده یا با خطا همراه است، الگوریتم اجازه می‌دهد تا وضعیت شبکه تحت‌تأثیر دینامیک انرژی، تکامل پیدا کند. به‌زبان ساده، سیستم طوری طراحی شده است که همیشه تمایل دارد به‌سمت کمترین انرژی حرکت کند؛ درست مانند توپی که اگر روی سراشیبی رها شود، به پایین‌ترین نقطه‌ی دره می‌غلتد.

مفاهیم فیزیک آماری، می‌توانند برای توضیح فرایندهایی مانند یادگیری، حافظه و حتی شکل‌گیری تفکر در سیستم‌های ماشینی به‌کار گرفته شوند

نتیجه‌ی این روندِ ساده اما قدرتمند، آن است که اگر ورودی ناقص یا مبهم باشد، شبکه می‌تواند حالت کامل و درست آن را به یاد بیاورد، چراکه با دنبال کردن مسیر افت انرژی، به پایین‌ترین دره‌ی نزدیک می‌رسد، جایی که حافظه‌ی هدف، پیش‌تر در آن تثبیت شده است. این یعنی مغز مصنوعی هاپفیلد نیازی به جست‌وجو یا تطبیق خط‌به‌خط داده‌ها ندارد؛ بلکه تنها با پیروی از قوانین فیزیک آماری و سیر طبیعی سیستم، به پاسخ درست هدایت می‌شود، بی‌آن‌که حتی بداند دقیقاً دنبال چه می‌گردد.

همین ایده‌ی به‌ظاهر ساده، یک انقلاب مفهومی به‌راه انداخت. پژوهشگران متوجه شدند که ابزارها و مفاهیم فیزیک آماری، می‌توانند برای توضیح فرایندهایی مانند یادگیری، حافظه و حتی شکل‌گیری تفکر در سیستم‌های ماشینی نیز به‌کار گرفته شوند.

در سال ۲۰۲۴، جان هاپفیلد و جفری هینتون، یکی از چهره‌های برجسته‌ی یادگیری عمیق، به‌دلیل پژوهش‌هایشان در زمینه‌ی فیزیک شبکه‌های عصبی، جایزه‌ی نوبل فیزیک را دریافت کردند. برخی این انتخاب را بحث‌برانگیز دانستند و معتقد بودند که این دستاوردها بیشتر به حوزه‌ی هوش مصنوعی تعلق دارند تا فیزیک. اما حقیقت آن است که علم، مرز ندارد. وقتی مفاهیم فیزیکی می‌توانند به ساخت ماشین‌هایی کمک کنند که «یاد بگیرند»، «به‌ خاطر بیاورند» و شاید حتی «تخیل کنند»، پس فیزیک وارد قلمروی جدیدی شده است: مطالعه‌ی ذهن، چه انسانی، چه ماشینی.

امروزه بسیاری از دانشمندان معتقدند که همان ایده‌هایی که از بررسی رفتار اسپین‌گلس‌ها متولد شدند، می‌توانند به طراحی شبکه‌های عصبی خلاق، شفاف و قابل‌ درک برای انسان کمک کنند. شاید برخی مواد، هیچ کاربرد مستقیمی نداشته باشند؛ اما ممکن است بذر مهم‌ترین تحولات علمی آینده را در خود پنهان کرده باشند.

از اسپین‌گلس تا ذهن مصنوعی

در دهه‌ی ۱۹۶۰، جان هاپفیلد با تحقیق روی نیمه‌هادی‌ها کارش را آغاز کرد؛ اما کمی بعد احساس کرد دیگر مسئله‌ای در فیزیک ماده‌ی چگال نیست که برایش هیجان‌انگیز باشد. خودش بعدها نوشت: «به‌دنبال یک مسئله‌ی واقعی بودم، نه صرفاً یک مسئله». از نگاه او، بزرگ‌ترین سؤال این بود: ذهن چگونه از مغز به‌وجود می‌آید؟

بزرگترین سوال جان هاپفیلد: ذهن چگونه از مغز به‌وجود می‌آید؟

هاپفیلد به‌جای ادامه‌ی پژوهش در فیزیک، به سراغ علوم اعصاب رفت. او فهمید که حافظه‌ی تداعی‌گر، یعنی حالتی که فقط با یک نشانه، یک خاطره‌ی کامل را به‌یاد می‌آوریم، می‌تواند با ابزارهای فیزیک آماری توضیح داده شود. برای همین شروع به ساخت شبکه‌ای از نورون‌های مصنوعی بر پایه‌ی ایده‌های فیزیکی کرد.

در یک کامپیوتر معمولی، اطلاعات به‌طور ایستا در آدرس‌های مشخصی ذخیره می‌شوند. آدرس، فقط یک کد دسترسی است و هیچ ربطی به محتوای ذخیره‌شده ندارد. اگر حتی کمی آدرس را اشتباه وارد کنید، به داده‌ی اشتباهی می‌رسید؛ انگار اشتباهی وارد خانه‌ی همسایه شده‌اید. اما مغز انسان اینگونه کار نمی‌کند. مثلاً بوی قرمه‌سبزی می‌تواند ناگهان خاطره‌ی یک ناهار خانوادگی را زنده کند. شبکه‌ی هاپفیلد هم همین‌طور عمل می‌کند: با یک نشانه‌ی کوچک، کل تصویر را می‌سازد.

ما اغلب از طریق تداعی‌ها به یاد می‌آوریم. بوی یک گل، آهنگ خاص، یا حتی جمله‌ای ساده، می‌تواند یک خاطره‌ی کامل را ناگهان به ذهنمان برگرداند؛ مثل وقتی که بوی یاس ما را به باغ پدربزرگ در کودکی می‌برد، یا شنیدن چند نت از یک ترانه، باعث می‌شود بی‌اختیار کل آهنگ را همراهی کنیم.

جان هاپفیلد سال‌ها تلاش کرد تا مفهوم حافظه‌ی تداعی‌گر را در قالب شبکه‌های عصبی مدل‌سازی کند. او انواع شبکه‌ها را با ساختارهای مختلف آزمود، اما هیچ‌کدام به نتیجه‌ی مطلوب نرسیدند. تا اینکه در نهایت، پاسخ را در جایی غیرمنتظره یافت: در فیزیک اسپین‌گلس‌ها. این ایده‌ی الهام‌گرفته از فیزیک ماده چگال، جرقه‌ای بود که نه‌تنها درک ما از حافظه را متحول کرد، بلکه الهام‌بخش مسیری شد که امروز هوش مصنوعی بر آن قدم می‌گذارد.

اسپین‌گلس‌؛ نظمی در دل بی‌نظمی

در دهه‌ی ۱۹۵۰، دانشمندان هنگام بررسی آلیاژهای رقیقی مثل آهن در طلا، متوجه رفتارهایی شدند که با آنچه از مواد معمول انتظار داشتند، تفاوت داشت. در دمای بالا، این آلیاژها رفتاری شبیه به موادی مانند آلومینیوم دارند: یعنی خودشان خاصیت مغناطیسی ندارند، اما در برابر میدان مغناطیسی خارجی واکنش نشان می‌دهند. به‌عنوان مثال، با یک آهنربای خیلی قوی می‌توانید یک قوطی آلومینیومی را کمی جابه‌جا کنید؛ اما آلومینیوم خودش هرگز آهنربا نمی‌شود و به‌محض حذف میدان خارجی، خاصیت مغناطیسی‌اش ناپدید می‌شود.

این آلیاژهای عجیب، بعدها به‌عنوان نمونه‌هایی از اسپین‌گلس شناخته شدند، موادی با ساختاری مغناطیسی که جهت‌گیری اسپین‌ها در آن‌ها نه مانند آهنرباهای معمولی، کاملاً منظم‌ و نه مثل مواد غیرمغناطیسی، کاملاً تصادفی است.

اسپین‌گلس‌ها موادی هستند که با قفل‌شدن تصادفی اسپین‌ها در جهت‌های مختلف، نوعی حافظه‌ی مغناطیسی پیچیده و پایدار ایجاد می‌کنند

اسپین‌گلس‌ها در دماهای پایین، رفتاری بسیار متفاوت و عجیب از خود نشان می‌دهند. وقتی آن‌ها را در معرض میدان مغناطیسی قرار می‌دهیم، خاصیت مغناطیسی ضعیفی در آن‌ها ایجاد می‌شود. نکته‌ی جالب اینجا است که وقتی میدان را حذف می‌کنیم، این خاصیت مغناطیسی فوراً از بین نمی‌رود. انگار نوعی حافظه‌ی مغناطیسی در آن‌ها شکل می‌گیرد. این رفتار غیرمنتظره و پایداری مغناطیسی در غیاب میدان، چیزی بود که دانشمندان را شگفت‌زده کرد.

اسپین‌گلس‌ها از نظر ویژگی‌های گرمایی نیز رفتاری غیرعادی دارند. همین ویژگی‌های ناشناخته بود که توجه فیزیکدانان را جلب کرد و آن‌ها را به ساخت مدل‌های آماری پیچیده برای توصیف این مواد واداشت؛ مدل‌هایی که بعدها در شکل‌گیری شبکه‌های عصبی مصنوعی و الگوریتم‌های یادگیری ماشین نقش مهمی ایفا کردند.

اوایل دهه‌ی ۱۹۷۰، فیزیکدانان حوزه‌ی ماده‌ چگال بالأخره راهی پیدا کردند تا رفتار عجیب اسپین‌گلس‌ها را توضیح دهند. آن‌ها با دستکاری مدل کلاسیکی‌ای که برای توصیف رفتار مغناطیسی جمعی استفاده می‌شد، مدل آیزینگ (Ising model)، سعی کردند رفتار پیچیده‌ی این مواد را توضیح دهند.

مدل آیزینگ چیست؟

ما انسان‌ها قرن‌ها است که با پدیده‌هایی مثل یخ زدن آب یا بخار شدن آن روی شعله آشنا هستیم، اما تا حدود صد سال پیش، کسی واقعاً نمی‌دانست این دگرگونی‌های ناگهانی چطور اتفاق می‌افتند. چرا وقتی آب را آرام‌آرام گرم می‌کنیم، ناگهان شروع به جوشیدن می‌کند؟ یا چرا وقتی کمی از دمای خاصی پایین‌تر می‌آید، یک‌باره یخ می‌زند؟ این‌ها نمونه‌هایی از تغییر فاز (phase transition) هستند و برخلاف تغییرات تدریجی، با یک جهش اتفاق می‌افتند.

در دهه‌ی ۱۹۲۰، فیزیکدان‌ها مدل آیزینگ را معرفی کردند؛ مدلی ساده اما قدرتمند که ابتدا برای توضیح رفتار مغناطیسی مواد طراحی شد. این مدل شبکه‌ای از ذرات (یا اسپین‌ها) را نشان می‌دهد که می‌توانند فقط دو وضعیت داشته باشند: بالا یا پایین. سادگی این مدل باعث شده است که امروزه در علوم مختلفی چون زیست‌شناسی، اقتصاد و علوم اجتماعی از آن برای شبیه‌سازی تعاملات پیچیده‌ای مانند رفتار نورون‌ها، تحلیل بازارها و مطالعه رفتار جمعی انسان‌ها استفاده شود.

مدل آیزینگ به نوعی مانند مگس میوه برای فیزیکدان‌ها است؛ ابزاری ساده که به درک بهتر سیستم‌های پیچیده و رفتار جمعی کمک می‌کند.

توضیح رفتار آهنربا

در سال ۱۹۲۰، درست پس از پایان همه‌گیری آنفلوآنزا، فیزیکدانی آلمانی به‌نام ویلهلم لنز تصمیم گرفت یک راز قدیمی را حل کند: چرا وقتی آهنربا را بیش‌ازحد گرم ‌کنیم (دمای آن بیشتر از دمایی مشخص شود)، خاصیت مغناطیسی‌اش از بین می‌رود؟

او مدل جدیدی ارائه داد که آهنربا را به شبکه‌ای از اتم‌ها تشبیه کرد؛ هر اتم به‌عنوان یک پیکان کوچک که می‌تواند به سمت بالا یا پایین باشد. در دماهای پایین، این پیکان‌ها بیشتر در یک جهت قرار می‌گیرند و خاصیت مغناطیسی برقرار است، اما با افزایش دما، گرما این نظم را به‌هم می‌زند و آهنربا خاصیت خود را از دست می‌دهد. این مدل ساده و جذاب بعدها به یکی از مهم‌ترین اصول فیزیک تبدیل شد و پایه‌گذار بسیاری از تحقیقات علمی و مدل‌سازی‌های پیچیده‌تری گردید.

مدل آیزینگ در یک بُعد

در دهه‌ی ۱۹۲۰، لنز از دانشجویش ارنست آیزینگ خواست تا مدلی ساده برای توصیف رفتار مغناطیسی مواد ارائه دهد. آیزینگ برای سادگی، مدل را فقط در یک بُعد بررسی کرد: زنجیره‌ای از پیکان‌ها که می‌توانستند به‌سمت بالا یا پایین و فقط با دو همسایه‌ی مجاور خود برهم‌کنش داشته باشند. محاسبات آیزینگ نشان داد هیچ مغناطیس پایداری شکل نمی‌گیرد. نویزهای حرارتی در هر دمایی آنقدر قوی هستند که مانع از ایجاد نظم مغناطیسی می‌شوند.

آیزینگ تصور کرد که این نتیجه به ابعاد بالاتر هم تعمیم پیدا می‌کند و بنابراین، مدل او نمی‌تواند رفتار واقعی آهنرباها را توصیف کند. برای مدتی این مدل نادیده گرفته شد و در نگاه بسیاری، شکست‌خورده بود.

مدل آیزینگ در دو بُعد

در دهه‌ی ۱۹۴۰، شیمیدان برجسته‌ی آمریکایی-نروژی، لارس اونزاگر سراغ نسخه‌ی دوبعدی مدل آیزینگ رفت؛ مدلی که در آن هر اسپین به‌جای دو، با چهار همسایه‌ی نزدیک خود (بالا، پایین، چپ و راست) برهم‌کنش دارد. او توانست به‌صورت دقیق محاسبه کند که چگونه رفتار مغناطیسی در این مدل به‌تدریج و با عبور از یک دمای بحرانی شکل می‌گیرد.

در مدل آیزینگ، برای تحلیل رفتار سیستم، باید تأثیر هر پیکان (یا همان اسپین) را روی تمام پیکان‌های دیگر در نظر گرفت. ازآنجاکه هر اسپین از طریق همسایه‌هایش روی بقیه تأثیر می‌گذارد، این زنجیره‌ی اثرها تا بی‌نهایت ادامه پیدا می‌کند. وقتی این مدل روی یک خط بررسی شود، حل آن نسبتاً ساده است؛ اما در حالت دوبعدی، یعنی روی یک صفحه، پیچیدگی‌ها به‌شدت افزایش می‌یابند.

لارس اونزگر، موفق شد این مدل را در حالت دوبعدی به‌طور کامل حل کند؛ کاری که بعدها برخی آن را کاری فراانسانی در ریاضیات نامیدند. او در توصیف معادله‌ی پیچیده‌اش و غیرمستقیمش می‌گوید:

خط‌به‌خط آن را دنبال می‌کنی، ولی تا آخر نمی‌فهمی دقیقاً چه اتفاقی افتاده، فقط می‌دانی که جواب، درست است.
- لارس اونزگر

مدل آیزینگ با تمام سادگی‌اش، تبدیل به ذره‌بینی شد که از دل آن، نه‌تنها رفتار آهنرباها، بلکه پویایی مغز، بازار و حتی ذهن مصنوعی دیده می‌شود

نتیجه‌ی مدل آیزینگ که در ابتدا ساده به نظر می‌رسید، شگفت‌انگیز بود: در دمای پایین، اسپین‌ها هم‌راستا می‌شوند و سیستم خاصیت مغناطیسی پیدا می‌کند، اما با افزایش دما، بی‌نظمی غالب می‌شود و مغناطیس از بین می‌رود. این مدل نشان می‌دهد که حتی یک شبکه‌ی ساده می‌تواند پدیده‌ی پیچیده‌ای مثل گذار فاز را توضیح دهد.

جالب‌تر اینکه بسیاری از مواد مختلف، وقتی به نقطه‌ی بحرانی می‌رسند، رفتار مشابهی از خود نشان می‌دهند؛ پدیده‌ای که به آن جهان‌شمولی می‌گویند. در این حالت، ویژگی‌های کلی سیستم (مانند ابعاد) اهمیت بیشتری از جزئیات آن پیدا می‌کنند. در سال ۱۹۷۱، کنت ویلسن با توضیح ریاضی این پدیده، جایزه‌ی نوبل را دریافت کرد و نشان داد که چگونه در نزدیکی دمای بحرانی و لحظه‌ی گذار فاز، نظم به‌طور ناگهانی در مقیاس‌های مختلف شکل می‌گیرد و اسپین‌های دور از هم نیز بر یکدیگر تأثیر می‌گذارند.

مدل آیزینگ در سه بُعد

مدل آیزینگ با وجود سادگی‌اش، نقش بزرگی در فهم رفتار مواد بازی کرده؛ اما نسخه‌ی سه‌بعدی آن هنوز مثل یک معمای حل‌نشده باقی مانده است. فیزیکدان‌ها سال‌ها تلاش کرده‌اند تا یک فرمول دقیق برای پیش‌بینی رفتار مغناطیسی آن در دماهای مختلف پیدا کنند؛ اما حتی نابغه‌ای در فیزیک مثل ریچارد فاینمن هم موفق به حل کامل این مدل نشد.

امروزه کامپیوترها می‌توانند مدل سه‌بعدی آیزینگ را شبیه‌سازی کنند، اما هنوز جستجو برای یک راه‌حل دقیق ادامه دارد. در سال ۲۰۱۲، فیزیکدانان با استفاده از «فضای نظریه‌ها»، ناحیه‌ای یافتند که با ویژگی‌های مدل آیزینگ تطابق داشت و از آن برای توضیح پدیده‌های عجیب در فیزیک تجربی استفاده کردند.

به‌قول فیزیکدان روسی-ایتالیایی-فرانسوی، اسلاوا ریچکوف، اگر روزی راه‌حلی دقیق برای این مدل پیدا شود، از مسیری کاملاً جدید و انقلابی خواهد بود. به‌همین‌دلیل، مدل آیزینگ حالا به نوعی میدان آزمایش برای ایده‌های بزرگ و جسورانه در فیزیک نظری تبدیل شده است.

از مدل آیزینگ تا اسپین‌گلس

در سال ۱۹۷۵، دو فیزیکدان به نام‌های دیوید شِرینگتون، فیزیکدان نظری بریتانیایی، و اسکات کِرکپاتریک، دانشمند علوم کامپیوتر، تصمیم گرفتند نسخه‌ی پیشرفته‌تری از مدل آیزینگ طراحی کنند تا بتواند رفتار پیچیده‌ی اسپین‌گلس‌ها را بهتر توضیح دهد.

آن‌ها یک تغییر مهم ایجاد کردند: در مدل جدید، هر اسپین (یا ذره‌ی مغناطیسی) می‌توانست با تمام اسپین‌های دیگر در سیستم تعامل داشته باشد، نه فقط با همسایه‌های نزدیکش. علاوه بر این، شدت این تعامل‌ها هم به‌صورت تصادفی تعیین می‌شد، یعنی بعضی جفت‌ها ممکن بود به‌سمت هم کشش داشته باشند و بعضی دیگر، دافعه.

نتیجه‌ی این طراحی، یک منظره‌ی انرژی بسیار پیچیده بود. تصورش را بکنید: یک فضای کوهستانی پر از دره‌ها و قله‌ها، که هر نقطه‌اش نماینده‌ی یک وضعیت مغناطیسی متفاوت است. وقتی سیستم شروع به تغییر می‌کند، می‌تواند در یکی از این دره‌های کم‌انرژی گرفتار شود و دیگر از آن خارج نشود، حتی اگر این حالت، بهترین یا پایدارترین نباشد. به این حالت‌ها کمینه انرژی موضعی می‌گویند.

اینجا دقیقاً تفاوت اسپین‌گلس‌ها با سایر مواد مشخص می‌شود: موادی مثل آهن درنهایت به یک حالت منظم و ساده با همه‌ی اسپین‌ها در یک جهت می‌رسند. موادی مثل گاز هم هیچ الگوی ثابتی ندارند. اما اسپین‌گلس‌ها بین این دو قرار می‌گیرند: آن‌ها نظم ندارند، اما بی‌نظم هم نیستند و در الگوهای عجیب و غیرقابل‌ پیش‌بینی‌ای یخ می‌زنند که نتیجه‌ی تعاملات پیچیده و تصادفی‌شان است. همین ویژگی‌ها آن‌ها را به یکی از چالش‌برانگیزترین و درعین‌حال الهام‌بخش‌ترین سیستم‌ها در فیزیک آماری تبدیل کرده است.

از اسپین تا نورون؛ فیزیک در دل شبکه‌های یادگیرنده

اگر به شبکه‌ای از نورون‌ها نگاهی ساده بیندازیم، متوجه می‌شویم که ساختار آن‌ها شباهت زیادی به مدل آیزینگ در فیزیک مغناطیس دارد. در هر دو مدل، اجزا فقط دو حالت دارند: نورون‌ها یا شلیک می‌کنند یا نمی‌کنند، اسپین‌ها نیز یا رو به بالا هستند یا پایین. یعنی با یک سیستم دودویی (باینری) طرف هستیم.

شباهت دوم در نحوه‌ی برهم‌کنش است. در مغز، نورون‌ها می‌توانند روی یکدیگر تأثیر بگذارند، مثلاً نورونی که فعال می‌شود، ممکن است نورون کناری را تحریک یا مهار کند. همین ایده در مدل اسپین‌گلس هم وجود دارد: اسپین‌ها می‌توانند هم‌جهت یا غیرهم‌جهت شوند و شدت این تأثیر هم می‌تواند از یک جفت به جفت دیگر متفاوت باشد.

به‌قول لِنکا زدِبُرووا، فیزیکدان و متخصص علوم کامپیوتر از مؤسسه‌ی فناوری فدرال لوزان: «می‌توانیم به‌جای اسپین‌ها یا اتم‌ها، نورون یا داده بگذاریم و همچنان از همان ابزارهای فیزیک آماری برای تحلیل استفاده کنیم». یعنی یک جعبه‌ابزار ریاضی داریم که با آن می‌توانیم مغناطیس، حافظه‌ی مغز و عملکرد الگوریتم‌های یادگیری ماشین را بررسی کنیم. همین انعطاف، فیزیک را به یکی از ستون‌های پنهان هوش مصنوعی تبدیل کرده است.

جان هاپفیلد برای ساخت شبکه‌‌اش، از مجموعه‌ای از نورون‌های مصنوعی استفاده کرد که هرکدام می‌توانستند در یکی از دو حالت ساده‌ی روشن (در حال شلیک عصبی) یا خاموش (در حال استراحت) باشند. نکته‌ی مهم آن است که هر نورون روی وضعیت بقیه‌ی نورون‌ها اثر می‌گذارد و این اثر می‌تواند تقویتی یا تضعیفی باشد؛ درست شبیه رفتار اسپین‌ها در یک اسپین‌گلس.

در هر لحظه، وضعیت کلی شبکه مشخص می‌کند که کدام نورون‌ها روشن هستند و کدام خاموش. این وضعیت را می‌توانیم خیلی ساده با یک رشته‌ی باینری نمایش دهیم: عدد ۱ برای نورون فعال و عدد ۰ برای نورون غیرفعال. بنابراین، حالت شبکه در هر زمان فقط ترکیب خاصی از صفر و یک‌ است. اما نکته‌ی اساسی اینجا است: در مدل هاپفیلد، اطلاعات در یک نقطه‌ی مشخص ذخیره نمی‌شوند؛ بلکه خودِ ساختار شبکه و وضعیت کلی آن، حامل اطلاعات است.

حافظه دیگر به‌صورت محلی تعریف نمی‌شود، بلکه در قالب یک الگوی توزیع‌شده از فعالیت نورون‌ها در سراسر شبکه شکل می‌گیرد. این نگاه نو به حافظه، به‌عنوان حالتی جمعی و پویای شبکه، نه یک داده‌ی ایستا، بلکه یکی از مفاهیم کلیدی بود که بعدها نقش مهمی در تحول نظریه‌های یادگیری و طراحی شبکه‌های عصبی مصنوعی ایفا کرد.

برای اینکه شبکه بتواند یک الگو را یاد بگیرد، هاپفیلد منظره‌ی انرژی آن را طوری شکل داد که الگوی مورد نظر، درست در یکی از کم‌انرژی‌ترین و پایدارترین نقاط قرار بگیرد. به این ترتیب، شبکه با رسیدن به آن حالت، دیگر تغییر نمی‌کرد و دقیقاً همان الگو را حفظ می‌کرد، مثل افتادن یک توپ در عمیق‌ترین نقطه‌ی یک دره که دیگر از جایش تکان نمی‌خورد.

شباهت ساختاری شبکه‌های عصبی و مدل آیزینگ نشان می‌دهد که ابزارهای فیزیک آماری به‌خوبی می‌توانند حافظه و یادگیری را در سیستم‌های هوشمند مدل‌سازی کنند

برای رسیدن به این هدف، هاپفیلد از یک قانون مشهور در علوم اعصاب الهام گرفت: «نورون‌هایی که با هم فعال می‌شوند، با هم ارتباط برقرار می‌کنند». هاپفیلد ارتباط بین نورون‌هایی را که در الگوی نهایی با هم روشن یا خاموش بودند، قوی‌تر و برعکس، اگر دو نورون وضعیت‌های متفاوتی داشتند (یکی روشن و دیگری خاموش)، اتصال میان آن‌ها را ضعیف کرد.

وقتی هاپفیلد می‌خواست الگویی را به شبکه آموزش دهد، ساختار انرژی شبکه را طوری تنظیم ‌می‌کرد که آن الگو در یکی از پایین‌ترین نقاط انرژی قرار بگیرد؛ یعنی به حالتی برسد که شبکه به‌طور طبیعی در آن پایدار بماند.

درنتیجه، اگر شبکه دچار نویز یا تغییرات جزئی شود، فقط کافی است اجازه دهیم که انرژی‌اش کاهش پیدا کند. شبکه خودش به‌صورت خودکار به پایین‌ترین نقطه یعنی همان الگوی ذخیره‌شده برمی‌گردد؛ بدون آنکه نیاز داشته باشد داده‌ها را جست‌وجو یا دستوری از بیرون دریافت کند. حافظه در این مدل، همان حالتی است که شبکه به‌طور طبیعی به آن میل می‌کند و در آن پایدار می‌ماند.

اگر بتوانیم مانند اسپین‌گلس‌ها، قدرت تعامل میان نورون‌ها را تنظیم کنیم، شاید بتوانیم نقاط تعادلی‌ای در شبکه تعریف کنیم که همان خاطره‌ها باشند.
- جان هاپفیلد

شبکه‌های هاپفیلد می‌توانند چند خاطره را هم‌زمان در خود نگه دارند؛ هر خاطره در یک دره‌ی انرژی جداگانه ذخیره می‌شود. اینکه شبکه در نهایت وارد کدام دره شود، به نقطه‌ی شروعش بستگی دارد.

به‌عنوان مثال، اگر شبکه هم تصویر گربه و هم تصویر یک فضاپیما را به خاطر داشته باشد، حالتی که شبیه گربه باشد، باعث می‌شود شبکه به‌سمت دره‌ی مربوط به گربه برود. برعکس، اگر حالت اولیه‌ شباهت بیشتری به ویژگی‌های فضاپیما داشته باشد، شبکه به سمت دره‌ی فضاپیما سقوط می‌کند. این یعنی شبکه‌ها مانند حافظه‌ی تداعی‌گر انسان کار می‌کنند: کافی است تکه‌ای ناقص یا مبهم از یک خاطره را بدهید، شبکه بقیه‌اش را بازسازی می‌کند.

پیوستگی فیزیک و یادگیری؛ از هاپفیلد تا مدل‌های انتشار

بین سال‌های ۱۹۸۳ تا ۱۹۸۵، جفری هینتون و همکارانش با گسترش ایده‌ی هاپفیلد، شبکه‌ی جدیدی به‌نام ماشین بولتزمن ساختند. تفاوت اصلی این مدل با هاپفیلد آن بود که به‌جای فقط به‌خاطر سپردن اطلاعات، می‌توانست الگوهای آماری موجود در داده‌ها را یاد بگیرد و نمونه‌های جدیدی مشابه آن‌ها تولید کند، چیزی شبیه به نسخه‌ی اولیه‌ی هوش مصنوعی مولد.

در دهه‌ی ۲۰۰۰، هینتون با ساده‌سازی این مدل، موفق شد مشکل بزرگ آموزش شبکه‌های عمیق با چندین لایه‌ی نورون را حل کند. این دستاورد، در سال ۲۰۱۲ به موفقیتی بزرگ تبدیل شد و مسیر ساخت مدل‌های امروزی مثل ChatGPT، Midjourney و DALL·E را هموار کرد؛ اما ماجرا اینجا تمام نمی‌شود.

در سال ۲۰۱۶، هاپفیلد و دیمیتری کروتوف، پژوهشگر IBM، نشان دادند که شبکه‌ی هاپفیلد فقط یک مدل نیست، بلکه یک خانواده‌ی کامل از مدل‌ها با توانایی‌های مختلف در ذخیره‌ی حافظه است. چند سال بعد، در سال ۲۰۲۰، پژوهشگران کشف کردند که حتی بخش مهمی از معماری ترنسفورمر، قلب تپنده‌ی بیشتر مدل‌های هوش مصنوعی امروزی هم عضوی از همین خانواده‌ی هاپفیلد است. یعنی ایده‌ای که زمانی از فیزیک اسپین‌گلس‌ها الهام گرفته شده بود، حالا در قلب پیشرفته‌ترین سیستم‌های هوش مصنوعی جا خوش کرده است.

در بیشتر مدل‌های هوش مصنوعی، معماری‌ها با آزمون‌و‌خطا ساخته می‌شوند؛ اما کروتوف معتقد است می‌توان مدل‌هایی طراحی کرد که ساختار انرژی آن‌ها از قبل حساب‌شده باشد، درست مثل شبکه‌های هاپفیلد، اما پیچیده‌تر و پیشرفته‌تر.

جالب‌تر اینکه امروز پژوهشگران فقط از این شبکه‌ها برای یادآوری استفاده نمی‌کنند، بلکه به‌دنبال کاربرد آن‌ها برای تولید محتوا هستند. مدل‌هایی مثل Midjourney که تصاویر جدید خلق می‌کنند، از الگوریتم‌هایی به‌نام مدل‌های انتشار (Diffusion Models) استفاده می‌کنند. این الگوریتم‌ها از پدیده‌ی انتشار الهام گرفته‌اند، مثل پخش‌شدن بوی عطر در هوا.

در این روش، ابتدا به تصاویر واقعی (مثلاً سگ‌ها) نویز اضافه می‌شود و سپس مدل آموزش می‌بیند که این نویز را به‌تدریج حذف کند. تصور کنید یک نقاشی زیبا را با لایه‌ای از نقاط تصادفی می‌پوشانید. مدل انتشار مثل یک هنرمند عمل می‌کند که این نقاط را لایه‌به‌لایه پاک می‌کند تا دوباره به تصویر اصلی برسد، یا حتی تصویر جدیدی خلق کند.

مدل‌های انتشار شباهت زیادی به رفتار شبکه‌های هاپفیلد دارند: از یک حالت ناقص، به سمت یک الگوی کامل حرکت می‌کند. با این تفاوت که شبکه‌ی هاپفیلد همیشه به یک خاطره‌ی خاص می‌رسد، ولی مدل‌های انتشار می‌توانند از دل نویز، هر بار گربه‌ی تازه‌ای بسازند؛ انگار یادآوری به خلاقیت تبدیل شده است.

به‌تازگی کروتوف و همکارانش نشان داده‌اند که مدل‌های انتشار، در واقع نوعی خاص و مدرن از شبکه‌های هاپفیلد به‌شمار می‌روند. آن‌ها کشف کرده‌اند که وقتی داده‌های آموزشی زیادی به چنین شبکه‌ای داده شود، حافظه‌ی شبکه فقط پُر نمی‌شود، بلکه ساختار انرژی آن چنان پیچیده و پر از دره و قله می‌شود که شبکه به‌جای یادآوری خاطرات واقعی، شروع به تولید خاطرات ساختگی می‌کند و این همان کاری‌ است که مدل‌های انتشار انجام می‌دهند.

از اسپین‌گلس‌ها تا مدل‌های مولد امروزی، این مسیر نشان می‌دهد که علم هیچ مرزی نمی‌شناسد. ایده‌هایی که زمانی برای توضیح رفتار مواد عجیب شکل گرفتند، حالا در قلب ماشین‌هایی می‌تپند که یاد می‌گیرند، خلق می‌کنند و شاید روزی، به ما کمک کنند تا خودمان را بهتر بشناسیم.

تبلیغات
تبلیغات

نظرات