اسپینگلس؛ چگونه یک ماده «بیکاربرد» به هوش مصنوعی حافظه انسانی داد؟
باورش سخت است، اما در تاریخ علم، گاهی بیکاربردترین پدیدهها، الهامبخش بزرگترین جهشهای نظری بودهاند. اسپینگلسها (Spin Glass) یکی از همین نمونههای اسرارآمیز هستند؛ موادی که نه شیشهاند، نه شفاف، بلکه معمولاً از آلیاژهای فلزی ساخته میشوند و رفتاری بسیار پیچیده، ناپایدار و گمراهکننده از خود نشان میدهند.
خلاصه پادکستی مقاله
ساختهشده با هوش مصنوعی
در ظاهر، اسپینگلسها هیچ کاربرد عملیای نداشتند، اما درست در همین پیچیدگیها، جرقهی یکی از بنیادیترین تحولات دنیای علم زده شد و مسیر دستیابی به هوش مصنوعی مدرن را هموار کرد. نظریههایی که برای درک رفتار عجیب این مواد مطرح شدند، بعدها در طراحی الگوریتمهایی بهکار رفتند که امروزه در قلب پلتفرمهای هوش مصنوعی مانند چتجیپیتی، میدجرنی و جمنای میتپند.
انقلابی در مفهوم حافظه: شبکه هاپفیلد
در سال ۱۹۸۲، فیزیکدان برجستهی آمریکایی بهنام جان هاپفیلد تصمیم گرفت مفهوم حافظه را نه با رویکرد روانشناسی، بلکه با زبان دقیق و ریاضیمحور فیزیک آماری بازتعریف کند. او شبکهای از نورونهای دیجیتال طراحی کرد که با الهام از رفتار اسپینگلسها، قادر بود الگوها را ذخیره و در زمان مناسب بازیابی کند. این مدل، که بعدها با عنوان شبکهی هاپفیلد شناخته شد، بر پایهی یکی از سادهترین اصول فیزیک بنا شده بود: هر سیستم پیچیده تمایل دارد انرژیاش را به کمترین سطح ممکن برساند.
در مدل هاپفیلد، حافظه دیگر به شکل سنتیاش، یعنی ذخیرهسازی اطلاعات در آدرسهای مشخص، تعریف نمیشود. بلکه هر خاطره، بهصورت الگویی پایدار در میان فضای گستردهای از حالتهای ممکن شبکه ذخیره میشود؛ الگویی که متناظر با نقطهای کمینه در یک منظرهی انرژی پیچیده است. این منظره را میتوان مانند یک نقشهی کوهستانی تصور کرد که درههایش همان خاطرات هستند و هر نقطه از نقشه، نمایندهی یک حالت ممکن از نورونهای شبکه است.
وقتی شبکه وارد یک حالت نویزی یا ناقص میشود، مثلاً وقتی بخشی از الگوی اولیه فراموش شده یا با خطا همراه است، الگوریتم اجازه میدهد تا وضعیت شبکه تحتتأثیر دینامیک انرژی، تکامل پیدا کند. بهزبان ساده، سیستم طوری طراحی شده است که همیشه تمایل دارد بهسمت کمترین انرژی حرکت کند؛ درست مانند توپی که اگر روی سراشیبی رها شود، به پایینترین نقطهی دره میغلتد.
مفاهیم فیزیک آماری، میتوانند برای توضیح فرایندهایی مانند یادگیری، حافظه و حتی شکلگیری تفکر در سیستمهای ماشینی بهکار گرفته شوند
نتیجهی این روندِ ساده اما قدرتمند، آن است که اگر ورودی ناقص یا مبهم باشد، شبکه میتواند حالت کامل و درست آن را به یاد بیاورد، چراکه با دنبال کردن مسیر افت انرژی، به پایینترین درهی نزدیک میرسد، جایی که حافظهی هدف، پیشتر در آن تثبیت شده است. این یعنی مغز مصنوعی هاپفیلد نیازی به جستوجو یا تطبیق خطبهخط دادهها ندارد؛ بلکه تنها با پیروی از قوانین فیزیک آماری و سیر طبیعی سیستم، به پاسخ درست هدایت میشود، بیآنکه حتی بداند دقیقاً دنبال چه میگردد.
همین ایدهی بهظاهر ساده، یک انقلاب مفهومی بهراه انداخت. پژوهشگران متوجه شدند که ابزارها و مفاهیم فیزیک آماری، میتوانند برای توضیح فرایندهایی مانند یادگیری، حافظه و حتی شکلگیری تفکر در سیستمهای ماشینی نیز بهکار گرفته شوند.
در سال ۲۰۲۴، جان هاپفیلد و جفری هینتون، یکی از چهرههای برجستهی یادگیری عمیق، بهدلیل پژوهشهایشان در زمینهی فیزیک شبکههای عصبی، جایزهی نوبل فیزیک را دریافت کردند. برخی این انتخاب را بحثبرانگیز دانستند و معتقد بودند که این دستاوردها بیشتر به حوزهی هوش مصنوعی تعلق دارند تا فیزیک. اما حقیقت آن است که علم، مرز ندارد. وقتی مفاهیم فیزیکی میتوانند به ساخت ماشینهایی کمک کنند که «یاد بگیرند»، «به خاطر بیاورند» و شاید حتی «تخیل کنند»، پس فیزیک وارد قلمروی جدیدی شده است: مطالعهی ذهن، چه انسانی، چه ماشینی.
امروزه بسیاری از دانشمندان معتقدند که همان ایدههایی که از بررسی رفتار اسپینگلسها متولد شدند، میتوانند به طراحی شبکههای عصبی خلاق، شفاف و قابل درک برای انسان کمک کنند. شاید برخی مواد، هیچ کاربرد مستقیمی نداشته باشند؛ اما ممکن است بذر مهمترین تحولات علمی آینده را در خود پنهان کرده باشند.
از اسپینگلس تا ذهن مصنوعی
در دههی ۱۹۶۰، جان هاپفیلد با تحقیق روی نیمههادیها کارش را آغاز کرد؛ اما کمی بعد احساس کرد دیگر مسئلهای در فیزیک مادهی چگال نیست که برایش هیجانانگیز باشد. خودش بعدها نوشت: «بهدنبال یک مسئلهی واقعی بودم، نه صرفاً یک مسئله». از نگاه او، بزرگترین سؤال این بود: ذهن چگونه از مغز بهوجود میآید؟
بزرگترین سوال جان هاپفیلد: ذهن چگونه از مغز بهوجود میآید؟
هاپفیلد بهجای ادامهی پژوهش در فیزیک، به سراغ علوم اعصاب رفت. او فهمید که حافظهی تداعیگر، یعنی حالتی که فقط با یک نشانه، یک خاطرهی کامل را بهیاد میآوریم، میتواند با ابزارهای فیزیک آماری توضیح داده شود. برای همین شروع به ساخت شبکهای از نورونهای مصنوعی بر پایهی ایدههای فیزیکی کرد.
در یک کامپیوتر معمولی، اطلاعات بهطور ایستا در آدرسهای مشخصی ذخیره میشوند. آدرس، فقط یک کد دسترسی است و هیچ ربطی به محتوای ذخیرهشده ندارد. اگر حتی کمی آدرس را اشتباه وارد کنید، به دادهی اشتباهی میرسید؛ انگار اشتباهی وارد خانهی همسایه شدهاید. اما مغز انسان اینگونه کار نمیکند. مثلاً بوی قرمهسبزی میتواند ناگهان خاطرهی یک ناهار خانوادگی را زنده کند. شبکهی هاپفیلد هم همینطور عمل میکند: با یک نشانهی کوچک، کل تصویر را میسازد.
ما اغلب از طریق تداعیها به یاد میآوریم. بوی یک گل، آهنگ خاص، یا حتی جملهای ساده، میتواند یک خاطرهی کامل را ناگهان به ذهنمان برگرداند؛ مثل وقتی که بوی یاس ما را به باغ پدربزرگ در کودکی میبرد، یا شنیدن چند نت از یک ترانه، باعث میشود بیاختیار کل آهنگ را همراهی کنیم.
جان هاپفیلد سالها تلاش کرد تا مفهوم حافظهی تداعیگر را در قالب شبکههای عصبی مدلسازی کند. او انواع شبکهها را با ساختارهای مختلف آزمود، اما هیچکدام به نتیجهی مطلوب نرسیدند. تا اینکه در نهایت، پاسخ را در جایی غیرمنتظره یافت: در فیزیک اسپینگلسها. این ایدهی الهامگرفته از فیزیک ماده چگال، جرقهای بود که نهتنها درک ما از حافظه را متحول کرد، بلکه الهامبخش مسیری شد که امروز هوش مصنوعی بر آن قدم میگذارد.
اسپینگلس؛ نظمی در دل بینظمی
در دههی ۱۹۵۰، دانشمندان هنگام بررسی آلیاژهای رقیقی مثل آهن در طلا، متوجه رفتارهایی شدند که با آنچه از مواد معمول انتظار داشتند، تفاوت داشت. در دمای بالا، این آلیاژها رفتاری شبیه به موادی مانند آلومینیوم دارند: یعنی خودشان خاصیت مغناطیسی ندارند، اما در برابر میدان مغناطیسی خارجی واکنش نشان میدهند. بهعنوان مثال، با یک آهنربای خیلی قوی میتوانید یک قوطی آلومینیومی را کمی جابهجا کنید؛ اما آلومینیوم خودش هرگز آهنربا نمیشود و بهمحض حذف میدان خارجی، خاصیت مغناطیسیاش ناپدید میشود.
این آلیاژهای عجیب، بعدها بهعنوان نمونههایی از اسپینگلس شناخته شدند، موادی با ساختاری مغناطیسی که جهتگیری اسپینها در آنها نه مانند آهنرباهای معمولی، کاملاً منظم و نه مثل مواد غیرمغناطیسی، کاملاً تصادفی است.
اسپینگلسها موادی هستند که با قفلشدن تصادفی اسپینها در جهتهای مختلف، نوعی حافظهی مغناطیسی پیچیده و پایدار ایجاد میکنند
اسپینگلسها در دماهای پایین، رفتاری بسیار متفاوت و عجیب از خود نشان میدهند. وقتی آنها را در معرض میدان مغناطیسی قرار میدهیم، خاصیت مغناطیسی ضعیفی در آنها ایجاد میشود. نکتهی جالب اینجا است که وقتی میدان را حذف میکنیم، این خاصیت مغناطیسی فوراً از بین نمیرود. انگار نوعی حافظهی مغناطیسی در آنها شکل میگیرد. این رفتار غیرمنتظره و پایداری مغناطیسی در غیاب میدان، چیزی بود که دانشمندان را شگفتزده کرد.
اسپینگلسها از نظر ویژگیهای گرمایی نیز رفتاری غیرعادی دارند. همین ویژگیهای ناشناخته بود که توجه فیزیکدانان را جلب کرد و آنها را به ساخت مدلهای آماری پیچیده برای توصیف این مواد واداشت؛ مدلهایی که بعدها در شکلگیری شبکههای عصبی مصنوعی و الگوریتمهای یادگیری ماشین نقش مهمی ایفا کردند.
اوایل دههی ۱۹۷۰، فیزیکدانان حوزهی ماده چگال بالأخره راهی پیدا کردند تا رفتار عجیب اسپینگلسها را توضیح دهند. آنها با دستکاری مدل کلاسیکیای که برای توصیف رفتار مغناطیسی جمعی استفاده میشد، مدل آیزینگ (Ising model)، سعی کردند رفتار پیچیدهی این مواد را توضیح دهند.
مدل آیزینگ چیست؟
ما انسانها قرنها است که با پدیدههایی مثل یخ زدن آب یا بخار شدن آن روی شعله آشنا هستیم، اما تا حدود صد سال پیش، کسی واقعاً نمیدانست این دگرگونیهای ناگهانی چطور اتفاق میافتند. چرا وقتی آب را آرامآرام گرم میکنیم، ناگهان شروع به جوشیدن میکند؟ یا چرا وقتی کمی از دمای خاصی پایینتر میآید، یکباره یخ میزند؟ اینها نمونههایی از تغییر فاز (phase transition) هستند و برخلاف تغییرات تدریجی، با یک جهش اتفاق میافتند.
در دههی ۱۹۲۰، فیزیکدانها مدل آیزینگ را معرفی کردند؛ مدلی ساده اما قدرتمند که ابتدا برای توضیح رفتار مغناطیسی مواد طراحی شد. این مدل شبکهای از ذرات (یا اسپینها) را نشان میدهد که میتوانند فقط دو وضعیت داشته باشند: بالا یا پایین. سادگی این مدل باعث شده است که امروزه در علوم مختلفی چون زیستشناسی، اقتصاد و علوم اجتماعی از آن برای شبیهسازی تعاملات پیچیدهای مانند رفتار نورونها، تحلیل بازارها و مطالعه رفتار جمعی انسانها استفاده شود.
مدل آیزینگ به نوعی مانند مگس میوه برای فیزیکدانها است؛ ابزاری ساده که به درک بهتر سیستمهای پیچیده و رفتار جمعی کمک میکند.
توضیح رفتار آهنربا
در سال ۱۹۲۰، درست پس از پایان همهگیری آنفلوآنزا، فیزیکدانی آلمانی بهنام ویلهلم لنز تصمیم گرفت یک راز قدیمی را حل کند: چرا وقتی آهنربا را بیشازحد گرم کنیم (دمای آن بیشتر از دمایی مشخص شود)، خاصیت مغناطیسیاش از بین میرود؟
او مدل جدیدی ارائه داد که آهنربا را به شبکهای از اتمها تشبیه کرد؛ هر اتم بهعنوان یک پیکان کوچک که میتواند به سمت بالا یا پایین باشد. در دماهای پایین، این پیکانها بیشتر در یک جهت قرار میگیرند و خاصیت مغناطیسی برقرار است، اما با افزایش دما، گرما این نظم را بههم میزند و آهنربا خاصیت خود را از دست میدهد. این مدل ساده و جذاب بعدها به یکی از مهمترین اصول فیزیک تبدیل شد و پایهگذار بسیاری از تحقیقات علمی و مدلسازیهای پیچیدهتری گردید.
مدل آیزینگ در یک بُعد
در دههی ۱۹۲۰، لنز از دانشجویش ارنست آیزینگ خواست تا مدلی ساده برای توصیف رفتار مغناطیسی مواد ارائه دهد. آیزینگ برای سادگی، مدل را فقط در یک بُعد بررسی کرد: زنجیرهای از پیکانها که میتوانستند بهسمت بالا یا پایین و فقط با دو همسایهی مجاور خود برهمکنش داشته باشند. محاسبات آیزینگ نشان داد هیچ مغناطیس پایداری شکل نمیگیرد. نویزهای حرارتی در هر دمایی آنقدر قوی هستند که مانع از ایجاد نظم مغناطیسی میشوند.
آیزینگ تصور کرد که این نتیجه به ابعاد بالاتر هم تعمیم پیدا میکند و بنابراین، مدل او نمیتواند رفتار واقعی آهنرباها را توصیف کند. برای مدتی این مدل نادیده گرفته شد و در نگاه بسیاری، شکستخورده بود.
مدل آیزینگ در دو بُعد
در دههی ۱۹۴۰، شیمیدان برجستهی آمریکایی-نروژی، لارس اونزاگر سراغ نسخهی دوبعدی مدل آیزینگ رفت؛ مدلی که در آن هر اسپین بهجای دو، با چهار همسایهی نزدیک خود (بالا، پایین، چپ و راست) برهمکنش دارد. او توانست بهصورت دقیق محاسبه کند که چگونه رفتار مغناطیسی در این مدل بهتدریج و با عبور از یک دمای بحرانی شکل میگیرد.
در مدل آیزینگ، برای تحلیل رفتار سیستم، باید تأثیر هر پیکان (یا همان اسپین) را روی تمام پیکانهای دیگر در نظر گرفت. ازآنجاکه هر اسپین از طریق همسایههایش روی بقیه تأثیر میگذارد، این زنجیرهی اثرها تا بینهایت ادامه پیدا میکند. وقتی این مدل روی یک خط بررسی شود، حل آن نسبتاً ساده است؛ اما در حالت دوبعدی، یعنی روی یک صفحه، پیچیدگیها بهشدت افزایش مییابند.
لارس اونزگر، موفق شد این مدل را در حالت دوبعدی بهطور کامل حل کند؛ کاری که بعدها برخی آن را کاری فراانسانی در ریاضیات نامیدند. او در توصیف معادلهی پیچیدهاش و غیرمستقیمش میگوید:
خطبهخط آن را دنبال میکنی، ولی تا آخر نمیفهمی دقیقاً چه اتفاقی افتاده، فقط میدانی که جواب، درست است.- لارس اونزگر
مدل آیزینگ با تمام سادگیاش، تبدیل به ذرهبینی شد که از دل آن، نهتنها رفتار آهنرباها، بلکه پویایی مغز، بازار و حتی ذهن مصنوعی دیده میشود
نتیجهی مدل آیزینگ که در ابتدا ساده به نظر میرسید، شگفتانگیز بود: در دمای پایین، اسپینها همراستا میشوند و سیستم خاصیت مغناطیسی پیدا میکند، اما با افزایش دما، بینظمی غالب میشود و مغناطیس از بین میرود. این مدل نشان میدهد که حتی یک شبکهی ساده میتواند پدیدهی پیچیدهای مثل گذار فاز را توضیح دهد.
جالبتر اینکه بسیاری از مواد مختلف، وقتی به نقطهی بحرانی میرسند، رفتار مشابهی از خود نشان میدهند؛ پدیدهای که به آن جهانشمولی میگویند. در این حالت، ویژگیهای کلی سیستم (مانند ابعاد) اهمیت بیشتری از جزئیات آن پیدا میکنند. در سال ۱۹۷۱، کنت ویلسن با توضیح ریاضی این پدیده، جایزهی نوبل را دریافت کرد و نشان داد که چگونه در نزدیکی دمای بحرانی و لحظهی گذار فاز، نظم بهطور ناگهانی در مقیاسهای مختلف شکل میگیرد و اسپینهای دور از هم نیز بر یکدیگر تأثیر میگذارند.
مدل آیزینگ در سه بُعد
مدل آیزینگ با وجود سادگیاش، نقش بزرگی در فهم رفتار مواد بازی کرده؛ اما نسخهی سهبعدی آن هنوز مثل یک معمای حلنشده باقی مانده است. فیزیکدانها سالها تلاش کردهاند تا یک فرمول دقیق برای پیشبینی رفتار مغناطیسی آن در دماهای مختلف پیدا کنند؛ اما حتی نابغهای در فیزیک مثل ریچارد فاینمن هم موفق به حل کامل این مدل نشد.
امروزه کامپیوترها میتوانند مدل سهبعدی آیزینگ را شبیهسازی کنند، اما هنوز جستجو برای یک راهحل دقیق ادامه دارد. در سال ۲۰۱۲، فیزیکدانان با استفاده از «فضای نظریهها»، ناحیهای یافتند که با ویژگیهای مدل آیزینگ تطابق داشت و از آن برای توضیح پدیدههای عجیب در فیزیک تجربی استفاده کردند.
بهقول فیزیکدان روسی-ایتالیایی-فرانسوی، اسلاوا ریچکوف، اگر روزی راهحلی دقیق برای این مدل پیدا شود، از مسیری کاملاً جدید و انقلابی خواهد بود. بههمیندلیل، مدل آیزینگ حالا به نوعی میدان آزمایش برای ایدههای بزرگ و جسورانه در فیزیک نظری تبدیل شده است.
از مدل آیزینگ تا اسپینگلس
در سال ۱۹۷۵، دو فیزیکدان به نامهای دیوید شِرینگتون، فیزیکدان نظری بریتانیایی، و اسکات کِرکپاتریک، دانشمند علوم کامپیوتر، تصمیم گرفتند نسخهی پیشرفتهتری از مدل آیزینگ طراحی کنند تا بتواند رفتار پیچیدهی اسپینگلسها را بهتر توضیح دهد.
آنها یک تغییر مهم ایجاد کردند: در مدل جدید، هر اسپین (یا ذرهی مغناطیسی) میتوانست با تمام اسپینهای دیگر در سیستم تعامل داشته باشد، نه فقط با همسایههای نزدیکش. علاوه بر این، شدت این تعاملها هم بهصورت تصادفی تعیین میشد، یعنی بعضی جفتها ممکن بود بهسمت هم کشش داشته باشند و بعضی دیگر، دافعه.
نتیجهی این طراحی، یک منظرهی انرژی بسیار پیچیده بود. تصورش را بکنید: یک فضای کوهستانی پر از درهها و قلهها، که هر نقطهاش نمایندهی یک وضعیت مغناطیسی متفاوت است. وقتی سیستم شروع به تغییر میکند، میتواند در یکی از این درههای کمانرژی گرفتار شود و دیگر از آن خارج نشود، حتی اگر این حالت، بهترین یا پایدارترین نباشد. به این حالتها کمینه انرژی موضعی میگویند.
اینجا دقیقاً تفاوت اسپینگلسها با سایر مواد مشخص میشود: موادی مثل آهن درنهایت به یک حالت منظم و ساده با همهی اسپینها در یک جهت میرسند. موادی مثل گاز هم هیچ الگوی ثابتی ندارند. اما اسپینگلسها بین این دو قرار میگیرند: آنها نظم ندارند، اما بینظم هم نیستند و در الگوهای عجیب و غیرقابل پیشبینیای یخ میزنند که نتیجهی تعاملات پیچیده و تصادفیشان است. همین ویژگیها آنها را به یکی از چالشبرانگیزترین و درعینحال الهامبخشترین سیستمها در فیزیک آماری تبدیل کرده است.
از اسپین تا نورون؛ فیزیک در دل شبکههای یادگیرنده
اگر به شبکهای از نورونها نگاهی ساده بیندازیم، متوجه میشویم که ساختار آنها شباهت زیادی به مدل آیزینگ در فیزیک مغناطیس دارد. در هر دو مدل، اجزا فقط دو حالت دارند: نورونها یا شلیک میکنند یا نمیکنند، اسپینها نیز یا رو به بالا هستند یا پایین. یعنی با یک سیستم دودویی (باینری) طرف هستیم.
شباهت دوم در نحوهی برهمکنش است. در مغز، نورونها میتوانند روی یکدیگر تأثیر بگذارند، مثلاً نورونی که فعال میشود، ممکن است نورون کناری را تحریک یا مهار کند. همین ایده در مدل اسپینگلس هم وجود دارد: اسپینها میتوانند همجهت یا غیرهمجهت شوند و شدت این تأثیر هم میتواند از یک جفت به جفت دیگر متفاوت باشد.
بهقول لِنکا زدِبُرووا، فیزیکدان و متخصص علوم کامپیوتر از مؤسسهی فناوری فدرال لوزان: «میتوانیم بهجای اسپینها یا اتمها، نورون یا داده بگذاریم و همچنان از همان ابزارهای فیزیک آماری برای تحلیل استفاده کنیم». یعنی یک جعبهابزار ریاضی داریم که با آن میتوانیم مغناطیس، حافظهی مغز و عملکرد الگوریتمهای یادگیری ماشین را بررسی کنیم. همین انعطاف، فیزیک را به یکی از ستونهای پنهان هوش مصنوعی تبدیل کرده است.
جان هاپفیلد برای ساخت شبکهاش، از مجموعهای از نورونهای مصنوعی استفاده کرد که هرکدام میتوانستند در یکی از دو حالت سادهی روشن (در حال شلیک عصبی) یا خاموش (در حال استراحت) باشند. نکتهی مهم آن است که هر نورون روی وضعیت بقیهی نورونها اثر میگذارد و این اثر میتواند تقویتی یا تضعیفی باشد؛ درست شبیه رفتار اسپینها در یک اسپینگلس.
در هر لحظه، وضعیت کلی شبکه مشخص میکند که کدام نورونها روشن هستند و کدام خاموش. این وضعیت را میتوانیم خیلی ساده با یک رشتهی باینری نمایش دهیم: عدد ۱ برای نورون فعال و عدد ۰ برای نورون غیرفعال. بنابراین، حالت شبکه در هر زمان فقط ترکیب خاصی از صفر و یک است. اما نکتهی اساسی اینجا است: در مدل هاپفیلد، اطلاعات در یک نقطهی مشخص ذخیره نمیشوند؛ بلکه خودِ ساختار شبکه و وضعیت کلی آن، حامل اطلاعات است.
حافظه دیگر بهصورت محلی تعریف نمیشود، بلکه در قالب یک الگوی توزیعشده از فعالیت نورونها در سراسر شبکه شکل میگیرد. این نگاه نو به حافظه، بهعنوان حالتی جمعی و پویای شبکه، نه یک دادهی ایستا، بلکه یکی از مفاهیم کلیدی بود که بعدها نقش مهمی در تحول نظریههای یادگیری و طراحی شبکههای عصبی مصنوعی ایفا کرد.
برای اینکه شبکه بتواند یک الگو را یاد بگیرد، هاپفیلد منظرهی انرژی آن را طوری شکل داد که الگوی مورد نظر، درست در یکی از کمانرژیترین و پایدارترین نقاط قرار بگیرد. به این ترتیب، شبکه با رسیدن به آن حالت، دیگر تغییر نمیکرد و دقیقاً همان الگو را حفظ میکرد، مثل افتادن یک توپ در عمیقترین نقطهی یک دره که دیگر از جایش تکان نمیخورد.
شباهت ساختاری شبکههای عصبی و مدل آیزینگ نشان میدهد که ابزارهای فیزیک آماری بهخوبی میتوانند حافظه و یادگیری را در سیستمهای هوشمند مدلسازی کنند
برای رسیدن به این هدف، هاپفیلد از یک قانون مشهور در علوم اعصاب الهام گرفت: «نورونهایی که با هم فعال میشوند، با هم ارتباط برقرار میکنند». هاپفیلد ارتباط بین نورونهایی را که در الگوی نهایی با هم روشن یا خاموش بودند، قویتر و برعکس، اگر دو نورون وضعیتهای متفاوتی داشتند (یکی روشن و دیگری خاموش)، اتصال میان آنها را ضعیف کرد.
وقتی هاپفیلد میخواست الگویی را به شبکه آموزش دهد، ساختار انرژی شبکه را طوری تنظیم میکرد که آن الگو در یکی از پایینترین نقاط انرژی قرار بگیرد؛ یعنی به حالتی برسد که شبکه بهطور طبیعی در آن پایدار بماند.
درنتیجه، اگر شبکه دچار نویز یا تغییرات جزئی شود، فقط کافی است اجازه دهیم که انرژیاش کاهش پیدا کند. شبکه خودش بهصورت خودکار به پایینترین نقطه یعنی همان الگوی ذخیرهشده برمیگردد؛ بدون آنکه نیاز داشته باشد دادهها را جستوجو یا دستوری از بیرون دریافت کند. حافظه در این مدل، همان حالتی است که شبکه بهطور طبیعی به آن میل میکند و در آن پایدار میماند.
اگر بتوانیم مانند اسپینگلسها، قدرت تعامل میان نورونها را تنظیم کنیم، شاید بتوانیم نقاط تعادلیای در شبکه تعریف کنیم که همان خاطرهها باشند.- جان هاپفیلد
شبکههای هاپفیلد میتوانند چند خاطره را همزمان در خود نگه دارند؛ هر خاطره در یک درهی انرژی جداگانه ذخیره میشود. اینکه شبکه در نهایت وارد کدام دره شود، به نقطهی شروعش بستگی دارد.
بهعنوان مثال، اگر شبکه هم تصویر گربه و هم تصویر یک فضاپیما را به خاطر داشته باشد، حالتی که شبیه گربه باشد، باعث میشود شبکه بهسمت درهی مربوط به گربه برود. برعکس، اگر حالت اولیه شباهت بیشتری به ویژگیهای فضاپیما داشته باشد، شبکه به سمت درهی فضاپیما سقوط میکند. این یعنی شبکهها مانند حافظهی تداعیگر انسان کار میکنند: کافی است تکهای ناقص یا مبهم از یک خاطره را بدهید، شبکه بقیهاش را بازسازی میکند.
پیوستگی فیزیک و یادگیری؛ از هاپفیلد تا مدلهای انتشار
بین سالهای ۱۹۸۳ تا ۱۹۸۵، جفری هینتون و همکارانش با گسترش ایدهی هاپفیلد، شبکهی جدیدی بهنام ماشین بولتزمن ساختند. تفاوت اصلی این مدل با هاپفیلد آن بود که بهجای فقط بهخاطر سپردن اطلاعات، میتوانست الگوهای آماری موجود در دادهها را یاد بگیرد و نمونههای جدیدی مشابه آنها تولید کند، چیزی شبیه به نسخهی اولیهی هوش مصنوعی مولد.
در دههی ۲۰۰۰، هینتون با سادهسازی این مدل، موفق شد مشکل بزرگ آموزش شبکههای عمیق با چندین لایهی نورون را حل کند. این دستاورد، در سال ۲۰۱۲ به موفقیتی بزرگ تبدیل شد و مسیر ساخت مدلهای امروزی مثل ChatGPT، Midjourney و DALL·E را هموار کرد؛ اما ماجرا اینجا تمام نمیشود.
در سال ۲۰۱۶، هاپفیلد و دیمیتری کروتوف، پژوهشگر IBM، نشان دادند که شبکهی هاپفیلد فقط یک مدل نیست، بلکه یک خانوادهی کامل از مدلها با تواناییهای مختلف در ذخیرهی حافظه است. چند سال بعد، در سال ۲۰۲۰، پژوهشگران کشف کردند که حتی بخش مهمی از معماری ترنسفورمر، قلب تپندهی بیشتر مدلهای هوش مصنوعی امروزی هم عضوی از همین خانوادهی هاپفیلد است. یعنی ایدهای که زمانی از فیزیک اسپینگلسها الهام گرفته شده بود، حالا در قلب پیشرفتهترین سیستمهای هوش مصنوعی جا خوش کرده است.
در بیشتر مدلهای هوش مصنوعی، معماریها با آزمونوخطا ساخته میشوند؛ اما کروتوف معتقد است میتوان مدلهایی طراحی کرد که ساختار انرژی آنها از قبل حسابشده باشد، درست مثل شبکههای هاپفیلد، اما پیچیدهتر و پیشرفتهتر.
جالبتر اینکه امروز پژوهشگران فقط از این شبکهها برای یادآوری استفاده نمیکنند، بلکه بهدنبال کاربرد آنها برای تولید محتوا هستند. مدلهایی مثل Midjourney که تصاویر جدید خلق میکنند، از الگوریتمهایی بهنام مدلهای انتشار (Diffusion Models) استفاده میکنند. این الگوریتمها از پدیدهی انتشار الهام گرفتهاند، مثل پخششدن بوی عطر در هوا.
در این روش، ابتدا به تصاویر واقعی (مثلاً سگها) نویز اضافه میشود و سپس مدل آموزش میبیند که این نویز را بهتدریج حذف کند. تصور کنید یک نقاشی زیبا را با لایهای از نقاط تصادفی میپوشانید. مدل انتشار مثل یک هنرمند عمل میکند که این نقاط را لایهبهلایه پاک میکند تا دوباره به تصویر اصلی برسد، یا حتی تصویر جدیدی خلق کند.
مدلهای انتشار شباهت زیادی به رفتار شبکههای هاپفیلد دارند: از یک حالت ناقص، به سمت یک الگوی کامل حرکت میکند. با این تفاوت که شبکهی هاپفیلد همیشه به یک خاطرهی خاص میرسد، ولی مدلهای انتشار میتوانند از دل نویز، هر بار گربهی تازهای بسازند؛ انگار یادآوری به خلاقیت تبدیل شده است.
بهتازگی کروتوف و همکارانش نشان دادهاند که مدلهای انتشار، در واقع نوعی خاص و مدرن از شبکههای هاپفیلد بهشمار میروند. آنها کشف کردهاند که وقتی دادههای آموزشی زیادی به چنین شبکهای داده شود، حافظهی شبکه فقط پُر نمیشود، بلکه ساختار انرژی آن چنان پیچیده و پر از دره و قله میشود که شبکه بهجای یادآوری خاطرات واقعی، شروع به تولید خاطرات ساختگی میکند و این همان کاری است که مدلهای انتشار انجام میدهند.
از اسپینگلسها تا مدلهای مولد امروزی، این مسیر نشان میدهد که علم هیچ مرزی نمیشناسد. ایدههایی که زمانی برای توضیح رفتار مواد عجیب شکل گرفتند، حالا در قلب ماشینهایی میتپند که یاد میگیرند، خلق میکنند و شاید روزی، به ما کمک کنند تا خودمان را بهتر بشناسیم.