محققان با استفاده از یادگیری ماشین، موفق به کاهش خطای کوانتومی شدند

جمعه ۸ مرداد ۱۴۰۰ - ۱۷:۲۴
مطالعه 4 دقیقه
گفته می‌شود محققان با به‌کارگیری الگوریتم‌های یادگیری ماشین موفق شده‌اند که خطاها و نویزهای محیطی، قاتلین خواص کوانتومی کیوبیت‌ها را کاهش بدهند.
تبلیغات

امروزه یادگیر ماشین (ML) به یکی از ارکان مهم دنیای تکنولوژی تبدیل شده است و درواقع می‌توان جنبه‌های استفاده از آن را به‌صورت مستقیم و غیرمستقیم در بسیاری از دستگاه‌ها و فناوره‌هایی که به‌طور روزمره با آن‌ها سروکار داریم، مشاهده کنیم. برای مثال، یادگیری ماشین اکنون عضوی جدانشدنی از موتورهای جست‌وجو است که روزانه میلیون‌ها نفر از آن استفاده می‌کنند. از سوی دیگر، پردازنده‌های گوشی‌های هوشمند در سالیان اخیر به بخش یادگیری ماشین مجهز شده‌اند و قابلیت‌هایی مانند تشخیص چهره سه‌بعدی گوشی‌های آیفون موسوم به فیس آی‌دی قدرت خود را از تکنولوژی مذکور می‌گیرد.

اکنون در جدیدترین اخبار کوانتومی، گفته می‌شود محققان دانشگاه سیدنی و شرکت نوپای Q-CTRL راهی را برای شناسایی منابع خطا در رایانه‌های کوانتومی ازطریق یادگیری ماشین ایجاد کرده‌اند که به موجب آن، این توانایی به توسعه‌دهندگان سخت‌افزار داده می‌شود که فرایند تخریب خواص کوانتومی را با دقت بی‌سابقه و شگفت‌آوری مشخص و مسیرهای دستیابی به رایانه‌های کوانتومی مفید و کاربردی را تسریع کنند. مقاله‌ی عملی این تحقیق تحت عنوان «طیف سنجی نویز اسیلاتور کوانتومی از طریق حالت گربه (اشاره به گربه شرودینگر)» در نشریه Physical Review Letters، مجله برتر تحقیقات علوم فیزیکی جهان و چاپ برجسته انجمن فیزیکی آمریکا (APS Physics) منتشر شده است.

شاید عنوان این مقاله برای افرادی که با علوم کوانتومی آشنایی ندارند، کمی عجیب باشد؛ اما درواقع، در مکانیک کوانتوم، حالت گربه که با الهام از گربه شرودینگر نام‌گذاری شده است، حالتی کوانتومی محسوب می‌شود که به‌طور هم‌زمان از دو شرایط کاملاً مخالف تشکیل شده که در حقیقت یادآور نظریه‌ گربه شرودینگر است. بر اساس این نظریه، گربه درون یک جعبه تا وقتی که درِ آن را باز نکنیم، می‌تواند به‌طور هم‌زمان زنده یا مرده یا هر دو (زنده و مرده) باشد. با تعمیم آزمایش فکری شرودینگر، هرگونه برهم نهی کوانتومی دیگر از دو حالت متمایز از نظر ماکروسکوپی به‌عنوان حالت گربه نیز شناخته می‌شود. حالت گربه می‌تواند یک یا چند حالت یا ذره داشته باشد؛ بنابراین لزوماً یک حالت درهم‌تنیده نیست. درواقع، چنین حالت‌هایی به روش‌های مختلف و در مقیاس‌های مختلف به‌طور آزمایشی تحقق می‌یابند.

با تمرکز بر کاهش خطاهای ناشی از نویزهای محیطی که پاشنه آشیل محاسبات کوانتومی محسوب می‌شود، تیم دانشگاه سیدنی تکنیکی را برای شناسایی کوچک‌ترین انحراف از شرایط دقیق مورد نیاز برای اجرای الگوریتم‌های کوانتوم با استفاده از یون‌های به دام افتاده مبتنی بر سخت‌افزار محاسبات کوانتومی ابررسانا ایجاد کرده است که در حقیقت، فناورهای مهمی هستند که توسط بازیگران پیشرو صنعت محاسبات کوانتومی نظیر گوگل، ای‌بی‌ام، هانی‌ول، IonQ و سایرین ارائه می‌شوند.

در این مقاله آمده است که برای مشخص کردن منبع انحراف اندازه‌گیری شده، دانشمندان Q-CTRL روشی جدید برای پردازش نتایج اندازه‌گیری با استفاده از الگوریتم‌های یادگیری ماشین سفارشی ایجاد کرده‌اند. ترکیب تکنیک‌های پیشرفته تجربی و یادگیری ماشین مزیت‌های بزرگی را در توسعه رایانه‌های کوانتومی نشان می‌دهد. دکتر کرنلیوس همپل از ETH زوریخ و متصدی این تحقیق در دانشگاه سیدنی می‌گوید که تیم Q-CTRL به سرعت یک راه حل یادگیری ماشین با مهندسی حرفه‌ای را ایجاد و این امکان را برای محققان فراهم کرده است که داده‌هایشان را درک کنند و راهی جدید برای مشاهده مشکلات موجود در سخت‌افزار و رفع آن‌ها ارائه بدهند.

مدیرعامل Q-CTRL و استاد دانشگاه سیدنی Michael J. Biercuk در این باره می‌گوید: «توانایی شناسایی و ازبین بردن منابع تخریب عملکرد در سخت‌افزار کوانتوم، هم برای تحقیقات اساسی و هم برای تلاش‌های صنعتی در ساخت حسگرهای کوانتوم و رایانه‌های کوانتومی بسیار مهم است. کنترل کوانتوم که با یادگیری ماشینی تقویت می‌شود، مسیری را نشان می‌دهد که این سیستم‌ها عملاً مفید واقع می‌شوند و به‌طور چشمگیری خطوط زمانی تحقیق و توسعه را تسریع می‌کنند. نتایج منتشر شده در یک ژورنال معتبر، سود همکاری مداوم بین تحقیقات علمی بنیادی را در یک آزمایشگاه دانشگاه و استارتاپ‌های با تکنولوژی پیشرفته را تأیید می‌کند. ما هیجان‌زده‌ایم که با همکاری خود تکنولوژی را به جلو سوق می دهیم.»

گفتنی است فرایند تصحیح خطا یکی از مهم‌ترین مباحث در حوزه رایانش کوانتومی محسوب می‌شود و می‌تواند در کاربردی شدن این غول‌های پردازشی در صنایع و سایر بخش‌ها نقش بسزایی داشته باشد؛ ازاین‌رو، محققان در تلاشند تا با ارائه رویکردهای جدید و متفاوت خود را در مسابقه جهانی برای ساخت کامپیوترهای کوانتومی با خطاهای اندک و کاربردی جلو بیندازند. برای مثال، اخیرا محققان گوگل با استفاده از کیوبیت‌های منطقی نویزهای محیطی را کاهش داده‌اند و از سوی دیگر، محققان دانشگاه MIT با دستیابی به پیشرفت درخورتوجهی در مسیر تحقق کامل محاسبات کوانتومی تکنیکی را کشف کرده‌اند که خطاهای رایج در ضروری‌ترین عملکرد الگوریتم‌های کوانتوم، یعنی دروازه‌های دوکیوبیتی را از بین می‌برد.

برای مطالعه‌ی تمام مقالات مرتبط با رایانش کوانتومی به این صفحه مراجعه کنید.

داغ‌ترین مطالب روز

نظرات

تبلیغات