ساخت اولین کامپیوتر کوانتومی جهان، جام مقدس اهالی سیلیکون ولی

غول‌‌های فناوری جهان، همگی در رقابتی نفس‌‌گیر چهار روش گوناگون را برای آزمایش اولین کامپیوتر کوانتومی کاربردی جهان در پیش‌‌گرفته‌‌اند.

در مرز دو کشور سوئیس و فرانسه، جایی در عمق زمین یکی از عظیم‌ترین و گرانبهاترین تجهیزات تاریخ فیزیک مدرن یعنی برخورددهنده‌‌ی بزرگ هادرونی مدفون شده است. این دستگاه اکنون فعالیتی ندارد؛ ولی قرار است به‌‌زودی طی سال‌‌های آینده، این برخورددهنده‌ی قدرتمند با ارتقایی ۲/۵ برابری در تعداد پروتون‌‌های برخوردکننده در هر ثانیه، جانی تازه بگیرد. با تکمیل این پروژه تا سال ۲۰۲۶، پژوهشگران امیدوارند که بتوانند پاسخی برای برخی از مهم‌ترین پرسش‌های بی‌پاسخ ما درمورد جهان هستی بیابند. اما با این ارتقای ساختاری، فیزیکدانان علم ذرات با سیل عظیمی از داده‌‌هایی تازه مواجه خواهند شد که تاریخ علم هرگز به خود ندیده بوده است؛ دانشی که حتی کوچک‌ترین تصوری هم از آن نداریم.

برای آنکه بتوانید درک بهتری از ابعاد مسئله به‌‌دست آورید، این مثال را در نظر بگیرید: وقتی LHC در دسامبر ۲۰۱۸ تعطیل شد، این دستگاه توانسته بود در هر ثانیه، حدود ۳۰۰ گیگابایت داده تولید ‌کند. این حجم داده در سال به ۲۵ پتابایت می‌‌رسد. تنها برای درک بهتر این عدد، بد نیست بدانید که برای گوش‌‌دادن به حجمی معادل ۲۵ پتابایت موزیک با فرمت MP3، شما به ۵۰ هزار سال زمان نیاز خواهید داشت!

ازسوی دیگر باید دانست ظرفیت حافظه‌‌ی مغز انسان برای ذخیره‌‌سازی اطلاعات، معادل ۲.۵ پتایایت داده‌ی باینری گزارش شده است. بنابراین برای آنکه بتوانیم این حجم عظیم داده را در آن زمان تحلیل کنیم، داده‌های ال‌‌اچ‌‌سی به ۱۷۰ مرکز محاسباتی در ۴۲ کشور جهان تزریق شد. درنتیجه‌‌ی همین همکاری جهانی بود که موفق به کشف ذره‌‌ی بنیادی بوزون هیگز شدیم؛ ذره‌‌ای حاصل از برانگیختگی کوانتومی میدان هیگز که تصور می‌‌شود مسئول ویژگی جرم در ذرات بنیادی ماده باشد.

quantum computing

نمایی از برخورددهنده‌ی بزرگ هادرونی

برای پردازش سیل عظیم داده‌هایی که در آینده تولید خواهند شد، دانشمندان در مرکز تحقیقات سرن (CERN)، به توان محاسباتی معادل با ۵۰ الی ۱۰۰ برابر توانی که امروزه در اختیار دارند، نیاز خواهند داشت. پیش‌‌بینی می‌‌شود یک برخورددهنده‌‌ی بزرگتر در آینده که ابعادی ۴ برابر ال‌‌اچ‌‌سی و قدرتی معادل ۱۰ برابر آن داشته باشد، احتمالا قادر خواهد به میزان دوبرابر ال‌‌اچ‌‌سی داده تولید کند.

در تلاش برای تحلیل این سیل عظیم داده‌ها، برخی پژوهشگران در مرکز سرن به علم نوظهور محاسبات کوانتومی روی آورده‌‌اند. یک ماشین کوانتومی براساس همان قوانینی از طبیعت که ال‌‌اچ‌‌سی در حال کاوش آن است، می‌تواند به‌‌طور بالقوه‌‌ای حجم داده‌‌ها را کاهش دهد. علاوه‌بر این، زبان کار این ماشین‌‌ها دقیقا به همان زبان ال‌‌اچ‌‌سی است. این روزها آزمایشگاه‌های زیادی در سراسر دنیا تلاش می‌کنند تا قدرت محاسبات کوانتومی را مهار کنند، اما آنچه چنین تحقیقاتی را بسیار مهیج کرده، قابلیت‌‌های آن در آینده‌‌ی فعالیت‌های مرکز سرن است. در این مسیر، فقط یک مشکل بزرگ وجود دارد و آن اینکه در حال حاضر، تنها نمونه‌های آزمایشی از این دستگاه ساخته شده و هیچ‌کس نمی‌داند که آیا واقعا امکان ساخت یک دستگاه کوانتومی قابل‌اطمینان وجود دارد یا خیر.

منطق یک کامپیوتر کوانتومی براساس کیوبیت‌ها تعریف می‌شود؛ بیت‌هایی کوانتومی که تنها به صفر و یک محدود نمی‌شوند

کامپیوترهای سنتی - خواه یک اپل واچ باشد، خواه قدرتمندترین ابررایانه‌‌ی روی سیاره‌ی زمین- مبتنی‌‌بر ترانزیستورهای کوچک سیلیکونی هستند که به‌‌صورت سوئیچ‌هایی خاموش و روشن‌‌شونده برای کدگذاری بیت‌‌های داده مورد استفاده واقع می‌‌شوند. هر مدار می‌تواند یکی از دو مقدار یک (روشن) یا صفر (خاموش) را در سیستم کد دودویی به‌‌خود اختصاص دهد. رایانه نیز برای انجام عملکردهای خود، ولتاژ را در این مدارها قطع یا وصل می‌‌کند.

اما یک کامپیوتر کوانتومی به این منطق صفر و یک محدود نمی‌شود. حافظه‌‌ی چنین دستگاهی از بیت‌‌های کوانتومی یا کیوبیت (qubits) تشکیل می‌‌شود. کیوبیت‌‌ها، ذرات سازنده‌‌ی تمام مواد حتی اتم‌ها یا الکترون‌ها به حساب می‌‌آیند. هر یک از کیوبیت‌‌ها می‌‌توانند در آن واحد، یک وضعیت دوگانه داشته باشند؛ به این معنی که می‌‌توانند در یک برهم‌‌نهی از تمامی ترکیبات ممکن از صفر و یک قرار گیرند؛ آن‌ها می‌توانند در آن واحد، تمامی این حالات را به‌‌صورت همزمان اشغال کنند.

تحقق پردازش کوانتومی برای دانشمندان مرکز تحقیقاتی سرن بدان معنا خواهد بود که شاید آن‌‌ها بالاخره بتوانند مدرکی دال بر وجود اَبَرتقارن (SUSY) بیابند؛ پدیده‌‌ای که تاکنون کسی موفق به اثبات آن نشده‌‌ است. در حال حاضر، پژوهشگران برای هفته‌ها و ماه‌ها وقت خود را صرف بررسی ریزذرات پس‌‌مانده‌‌ی ناشی از برخورد پروتون‌‌ها می‌‌کنند تا بلکه بتوانند ذراتی غیرمتعارف و سنگین را از میان دنیای عظیم ذرات سازنده‌‌ی ماده کشف کنند. این مأموریت چندین دهه به طول انجامیده و کار به‌‌حدی سخت شده که اکنون تعدادی از فیزیکدانان به تردید افتاده‌‌اند که آیا واقعا منطق نظریه‌‌ی ابرتقارن از اعتبار کافی برخوردار بوده است یا خیر. مسلما یک رایانه‌‌ی کوانتومی خواهد توانست روند تجزیه‌‌و‌‌تحلیل این برخوردها را سرعت بخشد تا زودتر بتوانیم شواهدی دال‌‌بر وجود ابرتقارن بیابیم یا اینکه با رد کامل این نظریه، به فکر نظریه‌‌های جایگزین باشیم.

quantum computing

نمونه‌ی کامپیوتر کوانتومی ساخته‌شده در آزمایشگاه متعلق‌به IBM

همچنین، یک محاسبه‌‌گر کوانتومی ممکن است بتواند دانشمندان را در درک تکامل جهان ابتدایی، یعنی دقایق اولیه پس از وقوع مه‌بانگ یاری کند. فیزیکدان‌ها تقریبا مطمئن هستند که جهان ما در آن زمان چیزی جز یک سوپ عجیب از ذرات زیراتمی به نام کوارک‌ها و گلوئون‌‌ها نبوده است. برای آنکه بهتر بتوانیم درک کنیم چگونه این پلاسمای کوارک-گلوئون در جهان این‌‌چنین تکامل ‌یافته است، پژوهشگران شرایط جهان را در ابتدای خلقت شبیه‌سازی کرده و سپس مدل‌های خود را با انجام چندین برخورد در ال‌‌اچ‌‌سی آزمایش می‌کنند. اجرای یک شبیه‌سازی روی یک کامپیوتر کوانتومی که با قوانینی مشابه‌‌با قوانین حاکم بر دنیای ذرات برخوردکننده در ال‌‌اچ‌‌سی کار می‌‌کند، مدل‌‌سازی دقیق‌‌تری را برای آزمایش به‌‌همراه خواهد داشت.

جدای از اهالی علم، حتی بانک‌ها، شرکت‌های داروسازی و دولت‌ها نیز بی‌‌صبرانه در انتظار رسیدن به قدرت محاسباتی برتری هستند که می‌تواند ده‌ها یا حتی صدها برابر بیشتر از کامپیوترهای سنتی باشد.

علاوه‌بر گوگل، IBM، مایکروسافت و اینتل، حتی بانک‌ها، شرکت‌های داروسازی و دولت‌ها نیز وارد مسابقه‌ی محاسبات کوانتومی شده‌اند

این انتظار برای چندین دهه ادامه یافته است. گوگل، IBM، مایکروسافت، اینتل و گروه بزرگی از شرکت‌‌های نوپا، تیم‌‌های آکادمیک و حتی دولت چین نیز در این رقابت شرکت دارند. حجم سرمایه‌‌گذاری صورت‌‌گرفته فوق‌العاده بالاست. در اکتبر سال گذشته‌‌ی میلادی، اتحادیه‌‌ی اروپا متعهد شد که مبلغ یک میلیارد دلار را به بیش از ۵۰۰۰ نفر از پژوهشگران فناوری کوانتوم در طول یک دهه اختصاص دهد. این در حالی است که بررسی‌‌ها نشان می‌‌دهد در سال ۲۰۱۸، سرمایه‌‌گذاران ریسک‌‌پذیر مبلغی معادل ۲۵۰ میلیون دلار را در شرکت‌های مختلف فعال در پژوهش‌‌های محاسبات کوانتومی سرمایه‌گذاری کرده‌‌اند. دیوید ریلی، مدیر یکی از آزمایشگاه‌‌های کوانتومی مایکروسافت در دانشگاه سیدنی از استرالیا می‌‌گوید:

آنچه می بینید یک ماراتن واقعی است. ماراتنی که تنها ۱۰ دقیقه از آغاز آن گذشته است.

با وجود تلاش دیوانه‌‌وار جهان برای کنترل محاسبات کوانتومی و هیجان رسانه‌ها در پوشش کوچک‌ترین پیشرفت‌‌های رخ‌‌داده در این علم، هنوز هیچ‌‌یک از تیم‌‌های رقابت‌‌کننده حتی به اولین ایستگاه در این مسابقه هم نرسیده‌‌اند. ایستگاه اول همان‌‌چیزی است که دانشمندان از آن به‌‌عنوان برتری کوانتومی (quantum supremacy) یاد می‌‌کنند؛ یعنی مرحله‌‌ای که اولین کامپیوتر کوانتومی بتواند حداقل یک وظیفه‌‌‌‌ی خاص (هرچند ساختگی و بیهوده) را به‌‌نحوی بهتر از یک کامپیوتر استاندارد انجام دهد. البته شایعات زیادی در انجمن‌‌های فعال در محاسبات کوانتومی وجود دارد که احتمالا گوگل درشرف دستیابی به این دستاورد بزرگ است. مایکل بیرکوک، فیزیکدان دانشگاه سیدنی و بنیان‌‌گذار شرکت نوپای Q-CTRL می‌گوید حتی اگر این قضیه صحت هم داشته باشد، در بهترین حالت تنها می‌‌تواند آتش رجزخوانی‌‌های این شرکت را تندتر کند. ریلی بر این باور است که:

این تنها یک هدف تصنعی است. مانند حل یک مسئله‌‌ی ریاضیاتی که هیچ‌‌گونه تاثیر آشکاری بر جهان ندارد. این تنها حرکتی است که بگوید یک کامپیوتر کوانتومی توانسته از پس یک مسئله برآید و بس.

quantum computing

کامپیوتر کوانتومی ۱۵ میلیون دلاری مورد ادعای شرکت D-Wave با ارتفاعی بالغ بر ۳ متر

واقعیت این است که اولین ایستگاه واقعی در این رقابت بسیار دورتر از چیزی است که می‌‌پنداریم و آن دستیابی‌‌به مزیت کوانتومی (quantum advantage) است؛ مرحله‌‌ای که در آن یک کامپیوتر کوانتومی قادر خواهد بود که به‌‌نحوی بهتر از کامپیوترهای معمولی از عهده‌‌ی یک وظیفه‌‌ی واقعی برآید (برخی از پژوهشگران اصطلاحات برتری کوانتومی و مزیت کوانتومی را به‌‌جای یکدیگر استفاده می‌کنند). در  آخرین مرحله از این تکامل درست در خط پایان رقابت، ایجاد یک کامپیوتر کوانتومی جهانی قرار می‌‌گیرد. امید می‌‌رود چنین رایانه‌‌ای بتواند با دستیابی‌‌به منتهی‌‌علیه توان محاسباتی قابل‌‌تصور، توانایی انجام طیف وسیعی از وظایف بسیار پیچیده را بیابد. طراحی مولکول‌های جدید برای ساخت داروهای نجات‌بخش، کمک به بانک‌ها برای تنظیم میزان ریسک پورتفولیوهای سرمایه‌‌گذاری، شکستن همه‌‌ی شیوه‌‌های رمزنگاری فعلی و توسعه‌‌ی سیستم‌های جدیدتر و قوی‌تر و نهایتا یافتن راهی برای دیدن جهان در لحظات اولیه پس از مهبانگ در مرکز سرن، همگی در طیف اهدافی قرار می‌‌گیرد که ازسوی گروه‌‌های مختلف دخیل در حال پیگیری است.

روند فعلی آرام ولی باثبات پیش می‌‌رود. فدریکو کارمیناتی، فیزیکدان فعال در مرکز سرن اذعان می‌کند که کامپیوترهای کوانتومی امروزی چیزی بیشتر از دستگاه‌‌های کلاسیک برای عرضه به پژوهشگران نخواهند داشت؛ بااین‌‌حال، وی همچنان به بلوغ فناوری نمونه‌‌‌‌های جدیدی از رایانه‌‌ی کوانتومی آی‌بی‌ام با قابلیت رایانش ابری چشم دوخته است. این به‌‌منزله‌‌ی آخرین مرحله از دور اول ماراتن کوانتومی جهان خواهد بود و دراین راستا، در نوامبر سال گذشته، قراردادی میان مرکز سرن و آی‌بی‌ام در یک رویداد صنعتی زیرنظر سازمان تحقیقات منعقد شده است.

این رویداد باهدف تبادل ایده‌‌ها و طرح مباحثات پیرامون همکاری‌‌های احتمالی میان شرکت‌‌کنندگان با حضور طیف وسیعی از پژوهشگران مرکز سرن، گوگل، IBM، اینتل، D-Wave، Rigetti و مایکروسافت برگزار شد و طی آن، گوگل نتایج آزمایش‌های خود را در مورد ماشین کوانتومی ۷۲ کیوبیتی خود با نام Bristlecone به‌‌اشتراک گذاشت، ریگتی از دستاوردهای خود در کار روی سیستم ۱۲۸ کیوبیتی سخن گفت و اینتل نیز ثابت کرد که با ماشین کوانتومی ۴۹ کیوبیتی خود هنوز در گردونه‌‌ی رقابت‌‌ها حضور دارد. ازسوی IBM نیز فیزیکدانی به نام ایوانو تاورنلی روی صحنه رفت تا بیشتر درباره‌‌ی آخرین پیشرفت‌‌های شرکت در این عرصه توضیح دهد.

quantum computing

نمایی از یکی از آزمایشگاه‌های متعلق‌به Rigetti

آی‌‌بی‌‌ام به‌‌طور پیوسته تعداد کیوبیت‌‌ها را در کامپیوترهای کوانتومی خود افزایش داده است. این شرکت ابتدا با یک کامپیوتر ضعیف ۵ کیوبیتی کار خود را آغاز کرد و در ادامه نمونه‌‌های ۱۶، ۲۰ و اخیرا نمونه‌‌ی ۵۰ کیوبیتی پردازنده‌‌های خود را رونمایی کرد. مرکز تحقیقاتی سرن نیز اعلام کرد که به‌‌تازگی یک کامپیوتر کوانتومی را به جمع فناوری‌‌های مسحورکننده‌‌ی خود افزوده است. در حال حاضر، پژوهشگران این مرکز شروع به توسعه‌‌ی الگوریتم‌ها و مدل‌های محاسباتی کاملا جدیدی کرده‌‌اند که هدف از آن، تلفیق با فناوری ماشین کوانتومی این مرکز است. کارمیناتی می‌‌گوید یک بخش بنیادی از این فرایند، ایجاد یک رابطه‌‌ی مستحکم میان تأمین‌‌کنندگان این فناوری است. او می‌‌افزاید:

ما هنوز گام‌‌های اولیه‌‌ی خود را در عرصه‌ی محاسبات کوانتومی برداشته‌‌ایم. اما حتی باوجود اینکه ما کمی دیرتر به جمع دیگر رقبا پیوستیم، تاکنون توانسته‌‌ایم تخصص‌‌هایی منحصر‌‌به‌‌فرد در بسیاری از زمینه‌های مختلف را با خود به ارمغان آوریم. ما کارشناسان علم مکانیک کوانتومی هستیم که در راس محاسبات کوانتومی جای می‌‌گیرند.

جذابیت دستگاه‌های کوانتومی امری بدیهی است. کامپیوترهای استاندارد را درنظر بگیرید. احتمالا شما هم پیش‌‌بینی‌‌ معروف گوردون مور، مدیرعامل سابق شرکت اینتل در سال ۱۹۶۵ را درمورد آینده‌‌ی صنعت رایانه به‌‌خاطر داشته باشید. پیش‌‌بینی او که با نام «قانون مور» شهرت یافته، می‌‌گفت که در هر دو سال، تعداد قطعات (ترانزیستورهای) موجود در یک مدار یکپارچه به‌طور تقریبی دوبرابر می‌‌شود. این قانون برای نیم‌‌قرن برقرار بوده؛ اما بسیاری بر این باورند که قانون مور در آستانه‌‌ی رویارویی با محدودیت‌های فیزیک است. بااین‌حال، از دهه‌‌ی ۱۹۸۰، پژوهشگران به‌فکر یافتن یک جایگزین افتاده‌‌اند. این ایده ابتدا توسط ریچارد فینمن، فیزیکدان آمریکایی از مؤسسه‌‌ی فناوری کالیفرنیا (Caltech) مورد توجه قرار گرفت. او طی یک سخنرانی در سال ۱۹۸۱، ابراز تاسف کرد که چرا رایانه‌ها نمی‌توانند آنچه را در سطوح زیراتمی رخ می‌دهد، شبیه‌سازی کنند. منظور او، رفتار ذرات پیچیده‌‌ای مثل الکترون‌ها و فوتون‌ها بود که مانند امواج رفتار می‌‌کردند؛ اما هم‌‌چنین این توانایی را داشتند که همزمان در دو حالت حضور داشته باشند؛ پدیده‌ای که امروزه با عنوان «برهم‌نهی کوانتومی» شناخته می‌‌شود.

فینمن در آن روز پیشنهاد ساخت ماشینی را داد که قابلیتی مشابه را داشته باشد. او در سال ۱۹۸۱ مقابل حضار گفت:

من موافق این ایده نیستم که تمامی تحلیل‌‌ها براساس نظریه‌‌های کلاسیک مطرح می‌‌شوند؛ زیرا طبیعت خود ماهیتی کلاسیک ندارد. پس اگر شما می‌خواهید یک شبیه‌سازی از طبیعت داشته باشید، بهتر است آن را براساس مکانیک کوانتومی پیاده‌‌سازی کنید، و ازقضا این یک مسئله‌‌ی بزرگ است؛ چراکه انجامش آن‌قدرها هم آسان نخواهد بود.

از آن زمان، مسابقه‌‌ی کوانتومی آغاز شد. کیوبیت‌‌ها می‌‌توانند به‌‌ روش‌‌های گوناگونی تولید شوند؛ اما اساس کار این است که هر جفت کیوبیت می‌‌تواند هر دو در حالت A، یا هر دو در در حالت B، یا یکی در در حالت A و دیگری در حالت B یا بالعکس باشند، بنابراین درمجموع، چهار احتمال وجود خواهد داشت. بااین‌‌حال شما نمی‌دانید که این کیوبیت‌‌ها در کدام حالت به‌‌سر می‌‌برند؛ مگر آن‌‌که اقدام به اندازه‌‌گیری کنید. اینجا است که کیوبیت از دنیای عجیب کوانتومی خود وارد واقعیت فیزیکی ما در این دنیا می‌‌شود و حالت خود را آشکار می‌‌کند.

دو ویژگی مکانیک کوانتوم یعنی برهم‌نهی و درهم‌تنیدگی، سرعت پردازش رایانه‌ها را به‌صورت تصاعدی بالا خواهند برد

از لحاظ نظری، یک کامپیوتر کوانتومی قادر است تمام حالت‌هایی را که یک کیوبیت می‌‌تواند در یک لحظه داشته باشد، پردازش ‌کند و با هر کیوبیت جدیدی که به حافظه اضافه می‌شود، توان محاسباتی دستگاه نیز باید به‌‌صورت نمایی افزایش یابد. بنابراین برای سه کیوبیت، هشت حالت وجود دارد که می‌‌توان به‌‌طور همزمان با آن کار کرد. به‌‌همین ترتیب، برای ۴ کیوبیت، ۱۶ حالت، برای ۱۰ کیوبیت، ۱۰۲۴ حالت و برای ۲۰ کیوبیت، تعداد خیره‌‌کننده‌‌ی ۱.۰۴۸.۵۷۶ حالت دردسترس خواهد بود. بنابراین برای پشت‌‌ سر گذاشتن ظرفیت حافظه‌‌ی قدرتمندترین ابررایانه‌‌ی مدرن جهان، نیاز به تعداد چندان زیادی کیوبیت نخواهید داشت. این بدان معنا است که برای انجام یک سری وظایف خاص، یک کامپیوتر کوانتومی می‌تواند با سرعتی بسیار بیشتر نسبت‌‌به هر کامپیوتر معمولی دیگری راه‌‌حل پیدا کند. حال می‌‌توانید یک مفهوم حیاتی دیگر را از دنیای مکانیک کوانتومی به این موضوع اضافه کنید: درهم‌‌تنیدگی. این بدان معنی است که ما می‌‌توانیم هر کیوبیت را به‌‌گونه‌‌ای به یک سیستم کوانتومی منفرد متصل کنیم که در آن، اعمال تغییرات روی یک کیوبیت، روی سایر سیستم تاثیر بگذارد. بدین ترتیب کامپیوتر کوانتومی می‌تواند قدرت پردازش کل سیستم را در اختیار خود درآورد و به‌طور زائدالوصفی توان محاسباتی خود را افزایش دهد.

quantum computing

دکتر مایکل بیرکوک؛ یکی از پژوهشگران کلیدی شرکت Q-Ctrl

درحالی‌که تعداد زیادی از شرکت‌ها و آزمایشگاه‌ها در این ماراتن کوانتومی شرکت دارند، بسیاری از آن‌ها همچنان در رقابت‌‌های مختص‌‌به خود و بااستفاده از راهکارهایی منحصربه‌‌فرد فعالیت می‌‌کنند. یکی از این دستگاه‌ها حتی توانسته به مرکز سرن راه یابد و توسط تیمی از پژوهشگران باهدف تحلیل داده‌‌های این مرکز مورد استفاده قرار گیرد. سال گذشته، گروهی از فیزیکدان‌ها از مؤسسه‌‌ی تکنولوژی کالیفرنیا در پاسادنا و دانشگاه کالیفرنیای جنوبی موفق شدند نتایج کشف ذره‌‌ی بوزون هیگز را (که پیش‌‌تر در سال ۲۰۱۲ در ال‌‌اچ‌‌سی کشف شده بود) این‌‌بار توسط یک کامپیوتر کوانتومی ساخت شرکت D-Wave تکرار کنند. البته این محاسبات کوانتومی نتوانست به سرعتی بیش‌‌از یک کامپیوتر سنتی برسد؛ اما این پژوهش بالاخره نشان داد که ماشین کوانتومی می‌توانند از عهده‌‌ی امور واقعی برآیند.

یکی از قدیمی‌ترین شرکت‌‌های رقابت‌‌کننده در این مسابقه‌‌ی کوانتومی، شرکت کانادایی D-Wave است که در سال ۲۰۱۷ اعلام کرد که موفق به تولید یک نمونه‌‌ی اولیه از کامپیوترهای کوانتومی ۱۶ کیوبیتی در مقیاس تجاری شده که با قابلیت‌‌هایی کامل قابل‌‌عرضه است. البته این ادعایی بوده که تا به‌‌امروز نیز محل مباحثات بسیار بوده است. D-Wave روی یک فناوری تمرکز کرده که با نام اتصال کوانتومی (quantum annealing) شناخته می‌‌شود. این فناوری بر پایه‌‌ی تمایل طبیعی سیستم‌های کوانتومی در جهان واقعی برای رسیدن‌‌به حالت‌هایی با انرژی پایین‌‌تر شکل گرفته است (کمی شبیه به مفهوم یک فرفره‌‌ی درحال چرخش که نهایتا به یک سمت می‌افتد). رایانه‌‌های کوانتومی این شرکت می‌‌توانند راه‌حل‌های احتمالی یک مسئله را به‌‌مانند چشم‌‌اندازی از یک نقشه متشکل از پستی‌‌وبلندی‌‌های گوناگون به تصویر بکشند. هر مختصات از این نقشه درحکم یک راه‌حل ممکن خواهد بود و ارتفاع هر نقطه نمایانگر انرژی آن است. اتصال کوانتومی به شما این امکان را می‌دهد که مسئله را تعریف کنید و سپس اجازه دهید سیستم در مدت‌‌زمان تقریبی ده میلی‌ثانیه پاسخ آن را بیابد. در حین عملکرد سیستم، تمام نقاط کمینه و بیشینه رصد می‌‌شوند. این سیستم می‌‌تواند به‌‌سرعت نقطه‌‌ی کمینه را در سرتاسر این چشم‌انداز وسیع از راه‌حل‌ها بیابد که متناظر با بهترین نتیجه‌‌ی ممکن برای مسئله است. آلان باراتز، رئیس دفتر محصولات  D-Wave می‌گوید که این شرکت، در حال حاضر روی نمونه‌ای از یک کامپیوتر جهانی با فناوری اتصال کوانتومی کار می‌‌کند.

علاوه‌‌بر فناوری اتصال کوانتومی، سه روش اصلی دیگر برای آزمودن و بهره‌‌گیری از قابلیت‌‌های جهان کوانتومی در راستای اهداف ما وجود دارد. این فناوری‌‌ها عبارت‌اند از: مدارهای مجتمع، کیوبیت های توپولوژیک و یون‌های به‌دام‌افتاده با لیزر. مرکز تحقیقاتی سرن امید فراوانی به موفقیت روش اول بسته است؛ بااین‌‌حال، همچنان نیم‌‌نگاهی به پیشرفت‌‌های صورت‌‌گرفته در روش‌‌های دیگر نیز دارد.

بیشترین تمرکز شرکت‌های سیلیکون‌ولی روی روش اول، یعنی ساخت تراشه‌های کوانتومی باکمک مدارهای مجتمع ابررسانا است

IBM به‌‌همراه دیگر غول‌‌های فناوری جهان یعنی گوگل و اینتل همگی در تلاش هستند تا تراشه‌های کوانتومی را با‌‌کمک مدارهای مجتمع ابررسانا (گیت‌‌های کوانتومی) بسازند. ابررسانایی به حالتی از ماده اطلاق می‌شود که در آن فلزات، الکتریسیته را بدون هیچ‌گونه مقاومت الکتریکی از خود عبور می‌‌دهند. هر گیت کوانتومی از یک جفت کیوبیت سُست برخوردار است (منظور از کیوبیت سست آن است که هرگونه نویزی، عملکرد کیوبیت‌‌ها را مختل کرده و درنتیجه منجربه بروز خطا می‌‌شود). در دنیای کوانتومی، نویز می‌‌تواند هر پدید‌‌ه‌‌ای از نوسانات دمایی و امواج الکترومغناطیسی و صوتی گرفته تا ارتعاشات فیزیکی را شامل شود.

برای ایجاد بهترین ایزولاسیون مممکن در این تراشه‌‌ها نسبت به اختلالات دنیای خارج نیاز است که دمای تراشه تا آنجا که ممکن است پایین آورده شود. در آزمایشگاه کوانتومی آی‌‌بی‌‌ام در زوریخ، تراشه در یک مخزن سفیدرنگ قرار گرفته که به‌صورت معلق از سقف آویزان است. دمای داخل مخزن به‌‌صورت ثابت در ۲۷۳- درجه‌‌ی سلسیوس نگاه داشته شده که تنها اندکی بالاتر از صفر مطلق و حتی سردتر از فضای خلا است. اما این هم هنوز برای عملکرد تراشه‌‌های کوانتومی کافی نیست.

حتی کارکردن دانشمندان با تراشه‌‌ی کوانتومی در حین تغییر کیوبیت‌‌ها نیز نویز ایجاد می‌‌کند. جان پرسکیل، فیزیکدان در مؤسسه‌‌ی فناوری کالیفرنیا (و مبدع اصطلاح برتری کوانتومی) می‌گوید:

جهان خارج پیوسته در حال تعامل با سخت‌افزار کوانتومی ما است و این به اطلاعاتی که ما در تلاش برای پردازش آن‌‌ها هستیم،  آسیب می‌رساند.

quantum computing

مرکز کوانتوم نانو در کانادا یکی از چندین آزمایشگاه بزرگ تحقیق و توسعه در حوزه‌‌ی محاسبات کوانتومی است که با بودجه‌‌ای هنگفت اداره می‌‌شود

رهایی کامل از شر نویزها امری غیرممکن به‌‌نظر می‌‌رسد؛ بنابراین پژوهشگران سعی دارند تا حد ممکن با آن مقابله کنند؛ ازاین‌‌رو، رسیدن به دماهای فراسرد، فرصتی بیشتری را برای پایداری بیشتر و انجام محاسبات کوانتومی فراهم خواهد کرد. ماتیاس مرگنتالر، دانشجوی فوق‌‌دکترای دانشگاه آکسفورد که در آزمایشگاه آی‌‌بی‌‌ام در زوریخ مشغول به‌‌کار است، می‌گوید که وظیفه‌‌ی او افزایش طول عمر کیوبیت‌‌ها است و آن‌ها درحال‌‌حاضر، روی چهار عدد از این کیوبیت‌ها کار می‌کنند.

او توضیح می‌‌دهد که این تعداد زیادی نیست ولی آنچه که اهمیت دارد تعداد این کیوبیت‌‌ها نیست؛ بلکه کیفیت آ‌‌ن‌هاست. این بدان معنا است که کیوبیت‌‌ها باید تا‌‌آنجاکه ممکن است درمعرض نویز کمتری باشند تا بتوان مطمئن شد که آن‌‌ها تاحدامکان در حالت برهم‌‌نهی دوام می‌آورند و درنتیجه ماشین نیز می‌تواند به محاسبات خود ادامه دهد. این تلاش بی‌‌انتها برای کاهش نویز همان نقطه‌ای است که امروزه محاسبات کوانتومی با یکی از بزرگ‌ترین چالش‌های خود روبروست. رایانه‌‌ای که اکنون شما با آن در حال مطالعه‌‌ی این نوشتار هستید، احتمالا عملکردی معادل با یک رایانه‌‌ی کوانتومی با ۳۰ کیوبیت نویزدار دارد. اما اگر شما بتوانید نویز را کاهش دهید، آنگاه این کامپیوتر کوانتومی بسیار قدرتمندتر از دستگاه شما خواهد بود.

برای پیشی‌‌گرفتن از کامپیوترهای استاندارد، یک دستگاه کوانتومی باید حدود ۱۰۰۰ کیوبیت با میزان نویز پایین داشته باشد

پس از کنترل نویز، پژوهشگران در مرحله ی بعدی سعی می‌کنند هرگونه خطای باقی‌مانده را با کمک الگوریتم‌های تصحیح خطای منحصربه‌‌فردی که روی یک رایانه‌‌ی کلاسیک اجرا می‌‌شوند، اصلاح کنند. مشکل این است که چنین الگوریتم تصحیح خطایی باید تک‌‌تک کیوبیت‌‌ها را بررسی کند؛ بنابراین هرچه کیوبیت بیشتری وجود داشته باشد، پس خطاهای بیشتری نیز وجود خواهند داشت که سیستم باید با آن‌‌ها را تصحیح کند. فرض کنید یک کامپیوتر در هر هزار گام محاسباتی، یک خطا ایجاد کند. شاید این میزان خطا چندان زیاد به نظر نرسد؛ اما این بدان معنا است که برنامه پس از انجام ۱۰۰۰ عملیات یا بیشتر، یک خروجی اشتباه تولید خواهد کرد. به‌‌منظور دستیابی به محاسباتی معنا‌دار و پیشی‌‌گرفتن از کامپیوترهای استاندارد، یک دستگاه کوانتومی باید حدود ۱۰۰۰ کیوبیت با میزان نویز پایین داشته باشد و خطا‌‌ها نیز تا حد ممکن تصحیح شود. زمانی‌که همه‌‌‌‌ی این ویژگی‌‌ها را کنار یکدیگر قرار ‌دهید، این ۱۰۰۰ کیوبیت (به‌‌تعبیر متخصصان) تبدیل به یک کیوبیت منطقی می‌شوند. بااین‌‌حال، تاکنون چنین نمونه‌‌ای از دستگاه‌‌های کوانتومی ساخته نشده است و بهترین دستگاه موجود قابلیت تصحیح حداکثر ۱۰ کیوبیت را خواهد داشت. به همین خاطر است که این نمونه‌های اولیه با نام کامپیوترهای کوانتومی نویزدار مقیاس‌‌متوسط (NISQ) شناخته می‌شوند، اصطلاحی که اولین‌‌بار در سال ۲۰۱۷ توسط پرسکیل ابداع شد.

از دیدگاه کارمیناتی، کاملا واضح است که این فناوری هنوز آماده‌‌ی عرضه نیست؛ اما این موضوع شاید اهمیت چندانی هم نداشته باشد. در مرکز سرن، چالش اصلی این است که بتوانیم آمادگی لازم را برای بهره‌‌گیری از قدرت کامپیوترهای کوانتومی در زمان موعود به‌‌دست آوریم؛ یعنی زمانی‌که سخت‌‌افزار لازم برای چنین دستگاهی تولید شود. کارمیناتی می‌‌افزاید:

یکی از فرصت های هیجان‌‌انگیز پیش‌‌رو این است که بتوانیم یک شبیه‌‌سازی بسیار دقیق از سیستم‌‌های کوانتومی را باکمک یک رایانه‌‌ی کوانتومی (که خود سیستمی کوانتومی است) اجرا کنیم. از دیگر فرصت‌‌های بزرگ پیش‌‌رو این می‌‌تواند باشد که محاسبات کوانتومی را با هوش مصنوعی به‌‌منظور تحلیل داده‌‌های بزرگ ترکیب کنیم؛ یک گزاره‌‌ی بسیار بلندپروازانه در شرایط فعلی که روزی می‌‌تواند در مرکز نیازهای ما قرار بگیرد.

 اما برخی از فیزیکدانان گمان می‌کنند که ماشین‌های NISQ قرار نیست هرگز از شر نویز خلاصی یابند. گیل کلای، استاد دانشگاه ییل بر این باور است که تصحیح خطا و حذف نویز هرگز به‌‌اندازه‌‌ا‌‌ی پیشرفت نخواهد کرد که بتواند به ما اجازه‌‌ی انجام هرگونه محاسبات کوانتومی مفیدی را بدهد و این قضیه تنها به‌‌خاطر محدودیت‌‌های تکنولوژی هم نیست، بلکه مربوط‌‌به اصول پایه‌‌ی مکانیک کوانتومی است. او می‌گوید که سیستم‌های دارای تعامل تمایل به ایجاد خطاهایی به‌‌صورت همبسته دارند؛ این بدان معنا است که خطاها به‌‌طور همزمان بسیاری از کیوبیت‌‌ها را تحت‌تاثیر قرار خواهند داد. به‌‌همین دلیل، امکان ندارد که در کامپیوترهایی با تعداد کیوبیت‌‌های بالا بتوانیم به‌‌منظور پایین‌‌نگه داشتن سطح نویز به‌‌میزان کافی، کدهای تصحیح لازم را ایجاد کنیم. او می‌گوید:

تجزیه‌‌و‌‌تحلیل‌های من نشان می‌دهد که کامپیوترهای کوانتومی دارای نویزی که از چند ده کیوبیت برخوردار هستند، چنان توان محاسباتی اندکی دارند که ممکن نیست بتوان از آن‌ها به‌‌عنوان بلوک‌های سازنده‌‌ی یک کامپیوتر کوانتومی در مقیاسی بزرگتر استفاده کرد.

quantum computing

کریس مونرو از بنیان‌گذران شرکت IonQ

معضل فعلی پیش‌روی مدارهای مجتمع کوانتومی، نه تعداد کیبوبیت‌های دردسترس، بلکه نویز و نرخ خطاهای کلی سیستم است

این تردیدها در میان دانشمندان به‌‌شدت مورد بحث قرار گرفته است. وبلاگ‌‌ها و انجمن‌‌های مختلف در حوزه‌‌ی محاسبات کوانتومی سرشار از مقالات و مباحثات دامنه‌‌داری شده که پیروان تفکر کلای و نیز منتقدان این دیدگاه در حال تبادل نظر هستند.

در حال حاضر، منتقدان کوانتومی در اقلیت هستند. ری لافلیم، فیزیکدانی از دانشگاه واترلو در اونتاریوی کانادا می‌گوید:

با درنظرگرفتن تعداد کیوبیت‌‌های فعلی که می‌‌توانیم آن‌‌ها را اصلاح کنیم، می‌‌توان گفت احتمالا مشکلی در افزایش مقیاس آن‌‌ها وجود نخواهد داشت

معضل اصلی که در حال حاضر با آن مواجه‌‌ایم، این نیست که آیا دانشمندان قادر به دستیابی به ۵۰، ۷۲ یا ۱۲۸ کیوبیت هستند یا خیر. مشکل این است که آیا افزایش مقیاس کامپیوترهای کوانتومی به مقادیر موردنظر باعث افزایش افزایش چشمگیر نرخ خطاهای کلی سیستم خواهد شد یا خیر.

برخی دیگر معتقدند که بهترین راه برای مقابله‌‌ با نویز و ایجاد کیوبیت‌‌های منطقی، تولید آن‌‌ها به روش‌‌هایی متفاوت است. در مایکروسافت، پژوهشگران در حال توسعه کیوبیت‌‌های توپولوژیک هستند (هرچند علی‌‌رغم تعدد آزمایشگاه‌‌های آن‌‌ها در سرتاسر جهان، هنوز موفق به تولید یک کیوبیت هم نشده‌‌اند). اگر تولید این کیوبیت‌‌ها موفقیت‌آمیز باشد، این کیوبیت‌‌ها بسیار پایدارتر از نمونه‌‌های تولیدشده در مدارهای مجتمع خواهند بود. ایده‌‌ی مایکروسافت تقسیم یک ذره (برای مثال یک الکترون) به دو  بخش و درنتیجه، ایجاد شبه‌‌ذرات فرمیون ماجورانا است. ریشه‌‌ی این نظریه به سال ۱۹۳۷ بازمی‌‌گردد. در سال ۲۰۱۲، پژوهشگرانی از دانشگاه فناوری دلفت از هلند که در آزمایشگاه فیزیک ماده‌‌ی چگال مایکروسافت کار می‌کردند، اولین مدرک تجربی را مبنی‌‌بر وجودشان به‌‌دست آوردند. چتان نایاک، مدیر عمومی سخت‌افزار کوانتومی در شرکت مایکروسافت می‌گوید:

امروزه شما درازای هر ۱۰۰۰ کیوبیت موجود در بازار، تنها به یکی از کیوبیت‌‌های ما نیاز خواهید داشت.

مایکروسافت از معدود شرکت‌هایی بوده که تمام توان خود را برای ساخت کیوبیت‌های توپولوژیک به‌کار گرفته است

به‌‌عبارت دیگر، هر کیوبیت توپولوژیک از همان ابتدا یک کیوبیت منطقی محسوب خواهد شد. ریلی بر این باور است که علی‌‌رغم سال‌‌ها تلاش بی‌‌حاصل، همچنان این کیوبیت‌‌های نایاب، ارزش جست‌وجو را دارند؛ چراکه اگر تنها یکی از آن‌‌ها تولید شود، بازتولید هزاران کیوبیت منطقی باکمک یک دستگاه NISQ بسیار ساده‌‌تر خواهد بود. کارمیناتی می‌گوید:

برای ما بسیار مهم است که بتوانیم کدها و الگوریتم‌‌های خود را در دستگاه‌های شبیه‌ساز کوانتومی و راه‌حل‌های سخت‌افزاری گوناگون امتحان کنیم. قطعا هنوز هیچ دستگاهی آمادگی لازم برای تولید کوانتومی اولیه را ندارد، همان‌‌طور که ما نیز به این آمادگی نرسیده‌‌ایم.

یکی دیگر از شرکت‌‌هایی که کارمیناتی بادقت پیشرفت آن را زیر نظر دارد، IonQ یک شرکت نوپای آمریکایی نشات‌‌گرفته از دانشگاه مریلند است. این شرکت از سومین روش اصلی در محاسبات کوانتومی استفاده می‌کند: «به‌‌دام انداختن یون‌ها با لیزر».

 

quantum computing

نمونه تجهیز پردازش کوانتومی ساخته‌شده در آزمایشگاه‌های مایکروسافت

یون‌ها خود به‌‌طور طبیعی کوانتوم بوده و از همان ابتدا و حتی در دمای اتاق از خاصیت برهم‌‌نهی برخوردار هستند؛ این یعنی آن‌ها مجبور نیستند مانند مدارهای مجتمع ماشین‌های NISQ در دمایی بسیار سرد نگه‌داری شوند. هر یک از یون‌‌ها خود به‌‌منزله‌‌ی یک کیوبیت منفرد خواهند بود. پژوهشگران این یون‌‌ها را باکمک تله‌های سیلیکونی کوچکی به دام می‌اندازند و سپس از لیزر برای اجرای الگوریتم (با تغییردادن دفعات و شدت برخورد هر لیزر با کیوبیت‌‌ها) استفاده می‌کنند. پرتوها اطلاعات را درون یون‌ها کدگذاری می‌کنند و درادامه با تغییر وضعیت الکترونیکی هر یون، این اطلاعات را از آن‌‌ها بازمی‌‌خواند.

در دسامبر سال گذشته، شرکت IonQ از دستگاه تجاری خود پرده‌برداری کرد که قادر به میزبانی از ۱۶۰ کیوبیت یونی بود و می‌‌توانست عملیات کوانتومی ساده‌‌ای را روی رشته‌‌ای متشکل‌‌از ۷۹ کیوبیت اجرا کند. بااین‌حال، این کیوبیت‌‌های یونی نیز در حال حاضر به‌‌اندازه‌‌ی نمونه‌‌های ساخته‌‌شده توسط گوگل، آی‌‌بی‌‌ام و اینتل درای نویز هستند و نه IonQ و نه هیچ آزمایشگاه دیگری در جهان نتوانسته به مرحله‌ی برتری کوانتومی دست یابد.

همان‌‌طورکه تبلیغات و هیاهو بر سر کامپیوترهای کوانتومی ادامه می‌‌یابد، زمان برای مرکز سرن به‌‌سرعت در حال گذر است. قرار است که این برخورددهنده‌‌ی عظیم ۵ سال دیگر با قدرتی بسیار بیشتر از امروز مجددا راه‌‌اندازی شود و تمام داده‌‌های به‌‌دست‌‌آمده نیز باید به‌‌سرعت تحلیل شوند. آن روز است که نیاز به یک کامپیوتر کوانتومی بدون نویز و با قابلیت تصحیح خطا به‌‌شدت احساس خواهد شد. کسی چه می‌داند شاید آن روز درحالی که یک فنجان چای می‌نوشید، اخبار مربوط‌به آخرین کشفیات نسخه‌ی جدید ال‌اچ‌سی را خود از نمایشگر یک رایانه‌ی کوانتومی بخوانید.

منبع wired

از سراسر وب

  دیدگاه
کاراکتر باقی مانده

بیشتر بخوانید