محاسبات کوانتومی چیست و چرا منتظر انقلاب محاسباتی هستیم؟

به گزارش سرویس تازه های دنیای فناوری مجله تک تایمز ،

خوشبختانه در دوره‌ای از تاریخ قرار داریم که تکنولوژی بیش از هر زمان دیگر در کانون توجهات قرار گرفته و روزانه میلیاردها نفر در سراسر جهان به‌طور مستقیم و غیر مستقیم با تکنولوژی‌های جذاب، پیچیده و حیرت‌انگیزی سروکار دارند که بی‌وقفه در حال پیشرفت هستند. ما تاکنون چندین نقطه‌عطف عظیم همچون انقلاب کامپیوتر‌های شخصی و گوشی‌های هوشمند را در این حوزه شاهده بوده‌ایم که به‌تبع مشاغل و شیوه زندگی افراد را کاملا دستخوش تغییر کرده است. بااین‌حال، شاید به‌توان این دستاوردها را مقدمه‌ای برای ایجاد انقلابی عظیم‌تر به‌نام رایانش کوانتومی توصیف کرد.

در دهه ۱۹۵۰ مردم فقط در اتاق‌های بزرگ مجهز به سیستم تهویه مناسب، به کامپیوترهای غول‌آسا دسترسی داشتند. در اواخر دهه ۷۰ تا ۸۰ میلادی، مردم به واسطه انقلاب ریزکامپیوتر‌ها در خانه‌های خود از وجود کامپیوتر بهره‌مند شدند و تا دهه ۹۰ مردم از لپ‌تاپ‌هایی بهره می‌بردند که می‌توانستند آن را در کیف خود حمل کنند. اکنون ما کامپیوتر‌هایی به شکل گوشی‌ هوشمند در جیب‌ خود حمل می‌کنیم که هزاران برابر از کامپیوترهای اولیه سریع‌تر هستند. بااین‌حال، به‌نظر می‌رسد که به‌زودی در این چرخه به بن‌بست خواهیم خورد؛ زیرا باوجود سال‌ها پیشرفت‌ چشمگیر در این حوزه و ایجاد دورانی مدرن و هیجان‌انگیز، کامپوترهای کلاسیک با محدودیت‌ها و مشکلاتی مواجه و از حل آن‌ها عاجز هستند. این دقیقا همان جایی است که رایانش کوانتومی نمایان می‌شود.

یکی از مهم‌ترین محدودیت‌های کامپیوتر‌های کلاسیک به کوچک‌سازی ترانزیستورها مربوط می‌شود. درحال‌حاضر شرکت‌های تراشه‌سازی واحدهای ترانزیستور را تقریباً به اندازه یک اتم کوچک کرده‌اند که پیشرفت شگرف و غیر قابل باوری محسوب می‌شود. برای درک بهتر آن، تصور کنید که در سیلیکونی به ابعاد یک سکه کوچک می‌توان میلیاردها ترانزیستور را تعبیه کرد! اما حتی اگر یک کامپیوتر کلاسیک به ما در انجام کارهای شگفت‌انگیز کمک کند، زیر کاپوت در واقع فقط یک ماشین حساب هستند که از دنباله‌ای از بیت‌ها استفاده می‌کند.

کامپیوترهای مرسوم چگونه کار می‌کنند؟

ترانزیستور

احتمالا میلیاردها نفر در سراسر جهان روزانه با انواع و اقسام کامپیوترها، از گوشی‌های هوشمند گرفته تا ابرکامپوترها سروکار دارند. به زبان ساده، کامپیوترهای کنونی را می‌توان دستگاه‌های بسیار کاربردی درنظر گرفت که به کاربران امکان می‌دهد ایمیل بفرستند، خرید آنلاین کنند، با دوستانشان در شبکه‌های اجتماعی تعامل داشته باشند یا حتی در دنیای غنی گیمینگ غوطه‌ور شوند؛ اما همان‌طورکه پیش‌تر گفته شد، این دستاوردهای پیشرفته با پردازنده‌های چند ده هسته‌ای، کارت‌های گرافیک بسیار قوی و… در بطن خود شامل یک ماشین حساب خسته و قدیمی هستند که قدمت آن به دهه‌ها پیش باز می‌گردد و از دستورالعمل‌های از پیش تعیین‌شده‌ای به نام برنامه استفاده می‌کنند.

کامپیوتر‌های کنونی را می‌توان به یک شعبده‌بازی تشبه کرد که کارهای عجیب و غیر قابل باوری جلوی چشم بینندگان انجام می‌دهد؛ اما به‌واقع، شعبده‌باز تنها از اصول پایه‌ای برای فریب بینندگان در زیر آستین یا کلاهش استفاده می‌کند. کامپیوتر‌های مرسوم دارای دو ترفند هستند که به‌نوعی تمامی بنیاد آن‌ها را شکل داده است. آن‌ها می‌توانند اعداد را در حافظه ذخیره و اعداد ذخیره‌شده را با عملیات ساده ریاضی (مانند جمع و تفریق) پردازش کنند. افزون بر این، آن‌ها می‌توانند با پیچاندن عملیات ساده در یک مجموعه به نام الگوریتم، کارهای پیچیده‌تری انجام بدهند. هر دو ترفند کلیدی کامپیوتر‌های کلاسیک (ذخیره و پردازش)، با استفاده از سوئیچ‌هایی به نام ترانزیستور انجام می‌شود.

پیشرفته‌ترین کامپیوترهای کنونی ماشین حساب‌هایی هستند که به اشباع‌شدن نزدیک می‌شوند

کامپیوتر‌های امروزی از واحدهای پردازش موسوم به بیت استفاده می‌کنند. بیت جریانی از پالس‌های الکتریکی یا نوری نشان‌دهنده اعداد ۱ یا صفر است و در حقیقت، تمامی فعالیت‌هایمان از توییت‌ها و ایمیل‌ها گرفته تا آهنگ‌ها و محتوای ویدیویی، در اصل رشته‌های طولانی این ارقام باینری هستند. در این میان، ترانزیستورها وظیفه ذخیره و پردازش این اعداد باینری را بر عهده دارند. این سوییچ‌های بسیار کوچک را در دنیای روزمره می‌توان کلیدهای پریز برق تشبیه کرد که می‌توانند روشن یا خاموش باشند. از حالت روشن آن‌ها می‌توان برای ذخیره‌سازی اعداد باینری «۱» و حالت خاموش آن‌ها برای اعداد باینری «۰» استفاده کرد.

به‌عبارت دیگر، هر یک از صفرها یا یک‌ها، عدد دوتایی یا بیت نامیده می‌شود و جالب است بدانید که با یک رشته هشت بیتی، می‌توان ۲۵۵ کاراکتر مختلف نظیر A-Z ، a-z ، ۰-۹ و رایج‌ترین نمادها را ذخیره کرد. کامپیوترها با استفاده از مدارهایی به نام دروازه‌های منطقی محاسبه می‌شوند که از تعدادی ترانزیستور متصل به هم ساخته شده‌اند. دروازه‌های منطقی الگوهای بیت‌هایی را که در حافظه‌های موقت به نام رجیستر ذخیره می‌شوند، مقایسه و سپس آن‌ها را به الگوهای جدیدی از بیت‌ها تبدیل می‌کنند و این معادل چیزی است که مغز ما آن را جمع و تفریق یا ضرب می‌نامد. از نظر فیزیکی، الگوریتمی که محاسبه خاصی را انجام می‌دهد، به شکل یک مدار الکترونیکی ساخته‌شده از تعدادی دروازه منطقی است و خروجی از یک دروازه به عنوان ورودی بعدی وارد می‌شود.

آنچه که گفته شد شگفت‌انگیز به نظر می‌رسد؛ اما این همان جایی است که توان محاسباتی کامپیوترهای مرسوم به اشباع‌شدن نزدیک می‌شود. هرچه اطلاعات بیشتری برای ذخیره‌سازی نیاز باشد، به بیت‌ها و ترانزیستورهای بیشتری نیاز خواهد بود؛ بنابراین، ترانزیستورها وظیفه بسیار مهمی در کامپیوترهای کنونی بر عهده دارند و این در حالی است که ما به محدودیت کوچک‌سازی آن‌ها نزدیک می‌شویم.

درحال‌حاضر، غول‌های تراشه‌ساز نظیر TSMC در حال تحقیق و توسعه روی تراشه‌های یک نانومتری هستند. اصلی‌ترین چالش شرکت‌های سازنده تراشه یافتن ساختار ترانزیستور و همچنین مواد ترانزیستوری مناسب است. در این میان، تماس‌های ترانزیستوری که نیرو را به ترانزیستور می‌رسانند، برای عملکرد آن‌ها (ترانزیستورها) بسیار حیاتی هستند. کوچک‌سازی بیشتر فناوری‌های استفاده‌شده در صنعت نیمه‌هادی مقاومت در تماس را افزایش می‌دهد و به موجب آن، عملکرد آن‌ها نیز محدود می‌شود؛ بنابراین، TSMC و سایر تراشه‌سازان باید ماده تماسی را پیدا کنند که مقاومت بسیار کمی داشته باشد، جریان‌های زیادی را انتقال دهد و از همه مهم‌تر برای تولید در حجم انبوه مقرون‌به‌صرفه باشد و این شاید در سالیان آینده به پاشنه آشیل صنعت تبدیل شود.

به‌طور کلی، ما با استفاده از روش‌های کلاسیک به محدودیت‌های بهره‌وری انرژی نزدیک شده‌ایم و بر‌‌‌اساس گزارشی از انجمن صنایع نیمه هادی، تا سال ۲۰۴۰ دیگر قادر به تغذیه محاسباتی تمام ماشین آلات در سراسر جهان نخواهیم بود. دقیقاً به همین دلیل است که صنعت کامپیوتر در تلاش است تا کامپیوترهای کوانتومی را در مقیاس تجاری کار کند. ایجاد کامپیوترهای کوانتومی مفید به‌هیچ‌وجه کار ساده‌ای نخواهد بود؛ اما به‌واقع ماه عسل آن می‌تواند دنیای محاسبات را به مرحله‌ای جدید برساند.

محاسبه کوانتومی چیست؟

محاسبات کوانتومی

نظریه کوانتوم شاخه‌ای از فیزیک است که به دنیای اتم‌ها و ذرات کوچک‌تر (زیر اتمی) درون آن‌ها می‌پردازد. در حقیقت، محاسبات کوانتومی نیز مبنای خود را بر اصولی پایبند کرده است که دانشمندان سال‌ها در کوچک‌ترین ذرات طبیعت نظیر اتم‌ها، فوتون‌ها یا الکترون‌ها مشاهده کرده‌اند. باب سوتور، متصدی اصلی بخش کوانتومی IBM، به زیبایی می‌گوید که محاسبات کوانتومی راه ما برای تقلید از طبیعت برای حل مشکلات فوق‌العاده دشوار، اما قابل حل آن‌ها است.

ممکن است فکر کنید که اتم‌ها نسخه بسیار کوچک سایر عناصر جهان باشند و دقیقا مانند آن‌ها رفتار می‌کنند؛ اما کاملا در اشتباه هستید. در مقیاس اتمی، قوانین تغییر می‌کنند و بسیاری از قوانین کلاسیک فیزیک که ما در دنیای روزمره خود آن‌ها مسلم می‌دانیم، دیگر کاربرد و معنایی نخواهند داشت. شاید به‌توان دنیای کوانتومی را بسیار غریب و در عین حال آشنا توصیف کرد که بسیار از دانشمندان را سردرگم و شیفته خود کرده است.

درحال‌حاضر، بسیاری از مبانی کوانتومی ناشناخته باقی مانده است؛ اما به قطعیت می‌توان گفت که این حوزه دارای ظرفیت بسیاری برای دگرگون ساختن بسیاری از صنایع است. کنترل موفقیت‌آمیز این ذرات در کامپیوتر کوانتومی می‌تواند باعث انفجار قدرت محاسباتی شود که به‌طور خارق‌العاده‌ای نوآوری را در بسیاری از زمینه‌ها که نیاز به محاسبات پیچیده دارند، مانند کشف دارو، مدل‌سازی آب‌وهوا و بهینه‌سازی مالی پیش می‌برد.

کامپیوتر کوانتومی چیست؟

کامپیوتر کوانتومی

ایده اصلی نهفته در کامپیوتر‌های کوانتومی این است که می‌توان از خواص و قوانین فیزیک کوانتوم برای ذخیره‌سازی و انجام عملیات روی داده‌ها استفاده کرد. کامپیوترهای کوانتومی با تکیه‌بر ویژگی‌های کوانتوم ذرات زیراتمی، برخی محاسبات را سریع‌تر از کامپیوترهای کلاسیک انجام می‌دهند. در کامپیوترهای سنتی، محاسبات پردازشی در مبنای ۲ انجام می‌شود و هر بیت در وضعیت خاموش یا روشن قرار می‌گیرد؛ اما واحد اطلاعات کوانتومی، کیوبیت (qbit)، با استفاده از ویژگی‌های مبتنی‌بر کوانتوم می‌تواند وضعیت خاموش و روشن یا هر مقداری بین آن‌ها را ارائه دهد که به آن برهم‌نهی می‌گویند. (در ادامه به‌تفصیل توضیح داده می‌شود).

تفاوت اصلی بین یک اَبَرکامپیوتر کلاسیک و یک کامپیوتر کوانتومی این است که دومی از برخی از خواص مکانیک کوانتومی برای دستکاری داده‌ها به نحوی که شهود را نادیده می‌گیرد، استفاده می‌کند

مبانی اصلی کامپیوتر کوانتومی به حدود چهار دهه پیش و نظریه ساخت کامپیوتر کلاسیک با برخی از اِلِمان‌های مکانیک کوانتوم، به وسیله فیزیک‌دان آمریکایی، پائول بنی‌اُف (Paul Benioff) بازمی‌گردد و در طی سال‌ها، افراد زیادی به تحقیق‌وتوسعه و نظریه‌پردازی در این باره پرداخته‌اند؛ اما عده‌ای از جامعه علمی بر این باورند که دیوید دویچ، اولین انگیزه و بنیاد تحقیق در مورد کامپیوتر کوانتومی را پایه‌گذاری کرده است.

افرادی همچون ریچارد فاینمن، دیوید دویچ و یوری مانین در سلسله‌مراتب تحقیقات خود به ایده مدل مکانیکی کوانتومی از یک ماشین تورینگ دست یافتند که نشان می‌داد از یک کامپیوتر کوانتومی می‌توان برای شبیه‌سازی چیزهایی استفاده کرد که به‌سادگی نمی‌توان آن‌ها را از طریق کامپیوتر کلاسیک و با استفاده از فیزیک کلاسیک شبیه‌سازی کرد. برای مثال، در سال ۱۹۹۴ دان سیمون در نظریه‌ای نشان داد که یک کامپیوتر کوانتومی می‌تواند از نظر نمایی سریع‌تر از یک کامپیوتر کلاسیک باشد. کامپیوترهای کوانتومی قصد جایگزینی کامپیوتر‌های کلاسیک را ندارند؛ زیرا آن‌ها ابزار متفاوت، گران و بسیار پیچیده‌ای هستند که به ما برای حل مشکلات پیچیده‌ای که خارج از توانایی‌های یک کامپیوتر کلاسیک است، کمک خواهند کرد.

اساساً، ورود به دنیای داده‌های بزرگ که در آن اطلاعات مورد نیاز برای ذخیره رشد می‌کند، نیاز به تعداد بیشتری بیت و ترانزیستور برای پردازش آن وجود دارد. در بیشتر موارد کامپیوتر‌های کلاسیک محدود به انجام یک کار در یک زمان هستند؛ بنابراین هرچه مشکل پیچیده‌تر باشد، زمان بیشتری برای انجام پردازش‌ها صرف می‌شود؛ مشکلی که نیاز به قدرت و زمان بیشتری نسبت به کامپیوتر‌های امروزی دارد و یک مشکل حل نشدنی نامیده می‌شود. این‌ها مشکلاتی هستند که پیش‌بینی می‌شود کامپیوترهای کوانتومی با بهره‌گیری از خواص عجیب و بسیار متمازشان آن‌ها را حل کنند. برای درک بهتر کارکرد کامپیوترهای کوانتومی بهتر است که قبل از آغاز هر چیز، با دو پدیده بسیار مهم کوانتومی یعنی برهم‌نهی و درهم‌تنیدگی آشنا شوید.

برهم‌نهی کوانتومی چیست؟

مفهومی از گربه شرودینگر

کیوبیت‌ها عناصر اصلی و زیربنایی هستند که کامپیوتر‌های کوانتومی قدرت پردازشی‌شان را از آن‌ها می‌گیرند. درواقع، کیوبیت‌ها همتای کوانتومی بیت‌ها در کامپیوترهای سُنتی محسوب می‌شوند که در بخش‌های پیشین با آن آشنا شدیم. یکی از تفاوت‌های بزرگ کامپیوترهای سُنتی و کوانتومی به مفهوم برهم‌نهی مربوط می‌شود. کامپیوتر کلاسیک می‌تواند مبتنی‌بر حالت A یا B (در اصطلاح باینری یک یا صفر) باشد؛ درحالی‌که کامپیوتر کوانتومی می‌تواند از ترکیب این دو هم استفاده کند.

معمولاً افرادی که در زمینه نورشناسی و پرتوهای نوری فعالیت دارند، ممکن است یک دید نسبی نسبت به برهم‌نهی داشته باشند؛ زیرا پرتو نور گاهی اوقات طوری رفتار می‌کند که گویی از ذرات همچون یک جریان مداوم از گلوله‌های توپ تشکیل شده است و گاهی اوقات همانند موج‌های انرژی در فضا موج می‌زنند. این «دوگانگی موج ذره» نامیده می‌شود و یکی از ایده‌هایی است که از نظریه کوانتوم سرچشمه می‌گیرد. درک این که چیزی می‌تواند هم‌زمان دو چیز مانند یک ذره و یک موج باشد، دشوار، دیوانه‌کنند و با تجربه روزمره ما کاملاً بیگانه است.

در ادامه بخوانید:

در دنیای روزمره ما به‌نظر می‌رسد اشیاء در مسیری پیوسته حرکت می‌‌کنند، آب در وان به‌طور مداوم بالا می‌رود و یک موشک به آسانی به آسمان صعود می‌کند؛ اما در حوزه کوانتومی همه‌چیز پرش و تکان می‌خورد. الکترون متصل به مرکز اتم می‌تواند فوراً از یک مدار به مدار دیگر بپرد و در اصل از مدار اصلی ناپدید شده و در مدار جدید دوباره ظاهر شود. در جهانی که می‌شناسیم، یک ماشین به‌طور هم‌زمان دوچرخه و اتوبوس نیست.

بااین‌حال، در نظریه کوانتوم این فقط یک چیز دیوانه کننده است که می‌تواند رخ بدهد. بارزترین مثال در این مورد نظریه گیج‌کننده‌ای است که به «گربه شرودینگر» شناخته می‌شود. به‌طور خلاصه، در دنیای عجیب نظریه کوانتوم، می‌توانیم شرایطی را متصور بود که موجودی شبیه به گربه می‌تواند هم‌زمان زنده و مرده باشد!

وقتی وارد دنیای ذرات اتمی و زیر اتمی می‌شوید، همه‌چیز شروع به رفتارهای غیر منتظره می‌کند. در حقیقت، این ذرات می‌توانند در بیش از یک حالت در یک زمان وجود داشته باشند. این توانایی است که کامپیوتر‌های کوانتومی از آن استفاده می‌کنند و این ویژگی خاص را کیوبیت‌ها برای کامپیوترهای کوانتومی به ارمغان می‌آورند. برای نشان دادن تفاوت، یک کُره را تصور کنید. بیت (واحد پردازش کامپیوترهای مرسوم) می‌تواند در هر یک از دو قطب کُره باشد؛ اما یک کیوبیت (واحد پردازش کامپیوترهای کوانتومی) می‌تواند در هر نقطه از کُره وجود داشته باشد.

مفهومی از برهم‌نهی کوانتومی

اگر متوجه نشده‌اید، بیایید با ارائه مثالی ساده موضوع را بهتر درک کنیم. در دنیای کنونی، یک اسکیت بورد می‌تواند در یک زمان فقط در یک مکان یا موقعیت، مانند سمت چپ سطح شیب‌دار (نشان‌دهنده عداد صفر باشد) یا سمت راست (نشان‌دهنده اعداد یک) قرار گرفته باشد؛ اما برهم‌نهی این امکان را به اسکیت‌سوار می‌دهد که مانند یک اتم رفتار کند و در میان اعداد صفر و یک قرار گیرد. اسکیت‌سوار عملاً می‌تواند در هر دو مکان به‌طور هم‌زمان حضور داشته باشد.

به‌طور کلی، برهم‌نهی نشان می‌دهد کامپیوتری که از کیوبیت استفاده می‌کند، می‌تواند حجم عظیمی از اطلاعات را ذخیره کرده و از انرژی کمتری نسبت به کامپیوترهای کلاسیک استفاده کند. با ورود به حوزه کوانتومی محاسبات که دیگر به قوانین سُنتی و محدودکننده فیزیک پایبند نیستند؛ ازاین‌رو می‌توانیم پردازنده‌هایی بسازیم که بیشتر از یک میلیون‌بار سریع‌تر از پردازنده‌های امروزی هستند.

درهم‌تنیدگی کوانتومی چیست؟

مفهومی از درهم‌تنیدگی کوانتومی

یکی دیگر از ویژگی‌های کامپیوتر‌های کوانتومی پدیده درهم‌تنیدگی است که شاید عجیب و ترسناک‌ترین ویژگی کوانتومی باشد. این نوعی پیوستگی کوانتومی بین کیوبیت‌ها است. تصور کنید که یک یون به‌عنوان کیوبیت عمل می‌کند و در ترکیب فوق صفر و یک قرار دارد و آن را با یک یون دوم درگیر می‌کنید. این دو یون درهم‌تنیده رابطه خاصی را حفظ خواهند کرد. درواقع، جالب‌بودن ماجرا را جایی درک خواهید کرد که متوجه شوید، اعمال تغییرات در یکی از یون‌ها بر دیگری نیز تأثیر می‌گذارد و این می‌تواند در حالی اتفاق بیفتد که هر دو یون با فاصله بسیار دوری (مانند فاصله میان دو سیاره) از هم جدا شده باشند!

فرض مشترک ما این است که اشیاء دارای خواصی قابل دید و خواص نهان هستند و معتقدیم که اعمال تغییرات در یکی، نمی‌تواند بر دیگری تأثیر بگذارد؛ درهم‌تنیدگی کوانتومی که آلبرت اینشتین آن را «اقدام وحشتناک از راه دور» می‌نامد، این فرض را رد می‌کند و استدلال‌های بی‌عیب‌ونقص و شواهد غیرقابل انکاری را ارائه می‌دهد؛ بنابراین، درهم‌تنیدگی کوانتومی پدیده‌ای است که در مقیاس کوانتومی مشاهده می‌شود که در آن ذرات درهم‌تنیده به‌نوعی به هم متصل می‌شوند؛ به‌طوری که اعمال انجام‌شده روی یکی از ذرات، بدون توجه به فاصله بین دو ذره، بر دیگری تأثیر می‌گذارد.

هیچ‌کس واقعاً نمی‌داند که درهم‌تنیدگی چرا و چگونه کار می‌کند؛ بنابراین نمی‌خواهیم که شما را با توضیحات کتابیِ پیچیده بیشتر گمراه کنیم. فقط کافی است بدانید که در کامپیوتر‌های مرسوم، دوبرابر‌شدن تعداد بیت‌ها قدرت پردازش آن‌‌ها را دو برابر می‌کند؛ اما به لطف درهم‌تنیدگی، ‌افزودن کیوبیت اضافی به کامپیوتر‌های کوانتومی باعث افزایش نمایی در قابلیت خرد‌کردن تعداد آن می‌شود. سپس کامپیوتر‌های کوانتومی کیوبیت‌ها را در نوعی زنجیره دیزی کوانتومی درگیر کرده تا جادوی دیوانه‌وار خود را انجام بدهند.

کامپیوتر کوانتومی چگونه کار می‌کند؟

کامپوتر کوانتومی

عملاً در بخش‌های پیشین با نیمی از کارکرد کامپیوترهای کوانتومی (برهم‌نهی و درهم‌تنیدگی) آشنا شدیم؛ اما اگر بخواهید یک کامپیوتر کوانتومی را تعریف یا توصیف کنید، چه چیزی در ذهنتان خطور می‌کند؟ شاید شما یک کامپیوتر معمولی را ببینید که فقط بزرگ‌تر است و جادوی فیزیکی اسرارآمیزی در بطن آن‌ها جریان دارد؛ اما بگذارید ساده بگویم، لپ‌تاپ، کامپیوتر رومیزی یا اَبَرکامپیوتر‌ها را فراموش کنید. یک کامپیوتر کوانتومی از نظر ظاهر و از همه مهم‌تر نحوه پردازش اطلاعات اساساً بسیار متفاوت است.

درحال‌حاضر روش‌های مختلفی برای ساخت کامپیوتر کوانتومی و مهم‌ترین اجزای آن‌ها، یعنی کیوبیت‌ها وجود دارد و شرکت‌ها به‌نوعی در حال آزمون‌وخطا برای دست‌ یافتن به فرمولی بهتر از رقبا هستند. برای مثال، گوگل و IBM از مدارهای ابررسانا استفاده می‌کنند که تقریبا در صفر مطلق خنک می‌شوند. از طرف دیگر، هانی‌ول طراحی تله‌یونی کیوبیت‌ها را از اتم‌های ایتربیم مجهز به بار الکتریکی تولید می‌کند. کیوبیت‌های اینتل الکترون‌های منفردی هستند که توسط ویژگی مکانیکی کوانتومی چرخش از دیگران متمایز می‌شوند و Xanadu برای کیوبیت‌هایش از فوتون بهره می‌گیرد و پردازنده‌های کوانتومی آن در دمای اتاق کار می‌کنند؛ اما بیایید با توصیف یکی از طرح‌های برجسته (مدارهای ابررسانا) برای توضیح نحوه عملکرد آن شروع کنیم.

کامپیوتر کوانتومی / Quantum Computer

یک رشته لامپ را تصور کنید که وارونه آویزان است که درواقع پیچیده‌ترین چیزی محسوب می‌شود که تا به حال دیده‌اید. به جای یک پیچ باریک سیم، دسته‌های نقره‌ای آن‌ها را سازماندهی کرده و به زیبایی در اطراف یک هسته بافته شده است. آن‌ها در لایه‌هایی چیده شده‌اند که با پایین رفتن باریک می‌شوند و سپس صفحات طلایی ساختار را به بخش‌هایی تقسیم می‌کنند.

قسمت بیرونی این کالبد را به‌دلیل شباهت انکارناپذیر «لوستر» می‌نامند. این یخچال فوق شارژ است که از مخلوط هلیوم مایع مخصوص برای خنک‌کردن تراشه کوانتومی کامپیوتر تا صفر مطلق (سردترین دمای نظری ممکن) استفاده می‌کند‌. در چنین دماهای پایینی، مدارهای ابررسانای کوچک در تراشه خواص کوانتومی خود را به‌دست می‌آورند؛ خواصی که برای انجام کارهای محاسباتی که عملاً در کامپیوتر‌های کلاسیک غیرممکن است، مورد استفاده قرار می‌گیرد. دستگاه‌های کوانتومی اغلب بسیار متفاوت از نمونه‌های قدیمی خود هستند؛ اما در یک استثنا، قطعه مرکزی برخی از پیشرفته‌ترین کامپیوترهای کوانتومی هنوز یک تراشه است؛ بااین‌تفاوت که این ماده از سیلیکون ساخته نشده، بلکه از موادی ابررسانا ساخته شده است.

ابررساناها مواد عجیب و غیر معمولی نیستند؛ زیرا آلومینیوم یکی از مهم‌ترین آن‌ها است و نیوبیوم (فلز کم‌یاب) یکی دیگر از مواردی است که معمولاً مورد استفاده قرار می‌گیرد. بااین‌حال، ابررساناها موادی حیاتی هستند که درصورت خنک‌شدن تا دمای مشخص و بدون هیچ‌گونه مقاومتی، می‌توانند الکتریسیته را هدایت کنند و مصرف انرژی را کاهش بدهند؛ این امر در جهانی که بیش از همیشه نیاز به کاهش مصرف انرژی دارد، امری اجتناب‌ناپذیر و بسیار حیاتی محسوب می‌شود.

شاید در ذهنتان سؤال ایجاد شود که چرا ابررساناها کاندیدای خوبی برای فناوری‌های کوانتومی هستند؟ جواب تاحدودی قابل پیش‌بینی است. از آنجا که ابررسانایی به‌خودی خود یک پدیده کوانتومی ماکروسکوپی است، حامل‌های بار الکتریکی در یک ابررسانا ابتدا جفت و سپس در یک حالت کوانتومی متراکم می‌شوند که گویی یک اتم بزرگ هستند. با استفاده از تماس‌های کوچک بین ابررساناها و اتصالات جوزفسون، محققان می‌توانند انواع مدارهای کوانتومی را به دلخواه مهندسی کرده و الگوریتم‌های کوانتومی را روی آن‌ها اجرا کنند.

بنابراین می‌توان گفت که ابررساناها خواص کوانتومی در مقیاس اشیاء روزمره را آشکار و آن‌ها را به کاندیداهای بسیار جذابی برای ساخت کامپیوتر‌هایی تبدیل می‌کنند؛ کامپیوترهایی که می‌توانند در انجام برخی وظایف، از بهترین اَبَرکامپیوتر‌های کنونی بهتر عمل کنند. در نتیجه، تقاضای روزافزونی از طرف شرکت‌های پیشرو فناوری مانند ای‌بی‌ام، گوگل و مایکروسافت برای ساخت کامپیوتر کوانتومی در مقیاس صنعتی با استفاده از ابررساناها وجود دارد.

‌همان‌طورکه پیش‌تر متوجه شدیم، پردازنده‌های کامپیوتر‌های سُنتی به‌صورت دوتایی کار می‌کنند و میلیاردها ترانزیستوری که اطلاعات لپ‌تاپ یا گوشی‌های هوشمندتان را کنترل می‌کنند، روشن (۱) یا خاموش (۰) هستند. با استفاده از مجموعه‌ای از مدارها، به نام «دروازه»، کامپیوتر‌ها عملیات منطقی را بر‌‌‌اساس وضعیت آن سوئیچ‌ها (ترانزیستورها) انجام می‌دهند. کامپیوتر‌های کلاسیک به گونه‌ای طراحی شده‌اند که از قوانین انعطاف‌ناپذیری پیروی کنند. این موضوع آن‌ها را بسیار قابل اعتماد می‌کند؛ اما همچنین آن‌ها را برای حل برخی از مشکلات مناسب نمی‌کند؛ اما همتایان کوانتومی آن‌ها، با جایگزین‌کردن کیوبیت‌ها به‌جای بیت‌های مرسوم، می‌توانند این محدودیت‌ها را کنار گذاشته و انعطاف‌پذیری پیشتری را در محاسبات به ارمغان بیاوند.

اگر از یک کامپیوتر معمولی بخواهید راه خود را از پیچ و خم محدودیت‌ها و پردازش‌های سنگین خارج کند، به نوبه خود تک تک شاخه‌ها و مسیرهای پیشرو را امتحان می‌کند و همه آن‌ها را به صورت جداگانه رد می‌کند تا شاخه مناسب را پیدا کند. این در حالی است که یک کامپیوتر کوانتومی می‌تواند همه مسیرهای پیشرو را در یک زمان به‌صورت موازی طی کند؛ ویژگی‌ای که درواقع مربوط به همان پیدیده برهم‌نهی می‌شود.

روش کلاسیک برای نشان دادن مکانیک کوانتومی، تاباندن نور از طریق یک مانع با دو شکاف است. مقداری از نور از شکاف بالا و برخی از پایین عبور می‌کنند و امواج نور به یکدیگر ضربه می‌زنند تا یک الگوی تداخل ایجاد شود. حال نور باید کاهش یابد تا فوتون‌های جداگانه را یک به یک شلیک کند. از نظر منطقی، هر فوتون باید از طریق یک شکاف واحد عبور کند و هیچ چیزی برای دخالت ندارند؛ اما به هر حال، هنوز با الگوی تداخل رو‌به‌رو می‌شوید.

در اینجا آنچه با‌توجه‌‌به مکانیک کوانتومی اتفاق می‌افتد، نمایان می‌شود و تا زمانی که آن‌ها را روی صفحه تشخیص ندهید، هر فوتون در وضعیت برهم‌نهی قرار می‌گیرد و گویی همه مسیرهای ممکن را یکجا طی می‌کند. به این معنا که تا زمانی که حالت برهم‌نهی تحت نظر ازبین برود تا یک نقطه واحد روی نمایشگر نشان داده شود. سپس ویژگی‌هایی نظیر درهم‌تنیدگی به دانشمندان این امکان را می‌دهد که چندین کیوبیت را حتی با یکدیگر در تماس نباشند، در یک حالت واحد قرار بدهند. درحالی‌که کیوبیت‌های جداگانه در ترکیب دو حالت وجود دارند، این امر با افزایش تعداد کیوبیت‌های بیشتر به‌صورت نمایی افزایش می‌یابد.

ساخت کامپیوترهای کوانتومی

کامپیوتر کوانتومی

اگر مقاله را تا به ایجا دنبال کرده باشید، قطعاً متوجه پتانسیل عظیم رایانش کوانتومی و نقش آن در آینده محاسبات شده‌اید. بااین‌حال، این تنها آغاز ماجرا است و عملی ساختن ایده‌های آن برای استفاده از کامپیوترهای کوانتومی در محیط‌ها و شرایط مختلف هنوز یک چالش اساسی است. به‌عبارت دیگر، با وجود اثبات مفاهیم و دلایل هیجان‌انگیز رایانش کوانتومی، منصفانه است که بگوییم جهان به‌زودی‌ قادر به پذیرش این تکنولوژی نخواهد بود و به پتانسیل و قدرت عظیم رایانش کوانتومی نزدیک نشده است.

قدرت یک کامپیوتر کوانتومی در این واقعیت نهفته است که سیستم را می‌توان در ترکیبی از تعداد بسیار زیادی حالت قرار داد. گاهی اوقات از این واقعیت برای استدلال اینکه ساخت یا کنترل کامپیوتر کوانتومی غیرممکن است، استفاده می‌شود. اصل بحث این است که تعداد پارامترهای مورد نیاز برای توصیف وضعیت آن بسیار زیاد است. کنترل یک کامپیوتر کوانتومی و اطمینان از اینکه حالت آن تحت تأثیر منابع مختلف خطا قرار نمی‌گیرد، یک چالش مهندسی خواهد بود. بااین‌حال، مشکل در حالت کوانتومی پیچیده آن‌ها نیست، بلکه این است که اطمینان حاصل شود که مجموعه اصلی سیگنال‌های کنترل آنچه را که باید انجام بدهند، انجام خواهند داد و کیوبیت‌ها همان‌طورکه انتظار می‌رود رفتار می‌کنند.

چندین دهه است که کامپیوترهای مرسوم مبتنی بر ترانزیستور و معماری‌های آشنا ساخته می‌شوند و به‌عبارتی، ما به تبحر خاصی در ساخت و توسعه این ماشین‌های پردازشی دست یافته‌ایم. در سوی دیگر،  ساخت ماشین‌های کوانتومی به معنای ابداع مجدد کل ایده کامپیوتر از ابتدا تا به کنون است. در این مسیر طبیعتاً مشکلات فراوانی نظیر ساخت کیوبیت‌های مقاوم‌تر، کنترل دقیق و داشتن آن‌ها به اندازه کافی برای انجام کارهای واقعا مفید وجود دارد. در مرحله بعد، یک مشکل بزرگ در مورد خطاهای ذاتی در یک سیستم کوانتومی است که از نظر فنی «نویز» نامیده می‌شود.

نویزهای محیطی هرگونه محاسبه کامپیوترهای کوانتومی را به‌طور جدی به خطر می‌اندازند. البته باید به این نکته اشاره کرد که راه‌هایی همچون تصحیح خطا برای مقابله با این مشکلات وجود دارد؛ اما آن‌ها معمولاً پیچیدگی بیشتری را ایجاد می‌کنند. همچنین مسئله اساسی نحوه دریافت داده‌ها از داخل و خارج از کامپیوتر کوانتومی وجود دارد که خود یک مشکل محاسباتی پیچیده است. برخی از منتقدان معتقدند این مسائل قابل حل نیست؛ درحالی‌که برخی دیگر مشکلات مذکور را می‌پذیرند و بر این باور هستند که می‌توان آن‌ها را به مرور برطرف کرد.

همدوسی کوانتومی چیست؟

انسجام کوانتومی

تعامل کیوبیت‌ها با محیط خود به گونه‌ای که باعث تجزیه و در نهایت از بین رفتن رفتار کوانتومی آن‌ها شود، «همدوسی کوانتومی» نامیده می‌شود. حالت کوانتومی کیوبیت‌ها بسیار شکننده است و کوچک‌ترین ارتعاش یا تغییر دما و اختلالات معروف به نویز در کوانتوم می‌تواند‌ منجر به ناکارآمد‌شدن آن‌ها شود. به همین دلیل است که محققان تمام تلاش خود را می‌کنند تا کیوبیت‌ها را در یخچال‌های فوق سرد و محفظه‌های خلاء محافظت کنند.

با وجود پیشرفت‌های روزافزون برای دستیابی به محاسبات کوانتومی با خطای کم، محققان هنوز موفق نشده‌اند خطاهای دروازه‌های دوکیوبیتی، یکی از عناصر سازنده محاسبات کوانتومی را ازبین ببرند و مشکلات متعدد در این زمینه همچنان ادامه دارد؛ ازاین‌رو، آن‌ها برای مقابله با این نویزها به‌اصطلاح به فرایند تصحیح خطا روی می‌آورند. تصحیح خطای کوانتومی برای دستیابی به محاسبات کوانتومیِ مقاوم دربرابر خطا امری ضروری است و می‌تواند نه‌تنها با نویز موجود در اطلاعات کوانتومی ذخیره‌شده، بلکه با دروازه‌های کوانتومی و آماده‌سازی و اندازه‌گیری‌های معیوب مقابله کند.

به‌عبارت‌دیگر، به‌‌دلیل اینکه ایزوله‌کردن حقیقی سیستم‌های کوانتومی بسیار سخت و دشوار است، سیستم‌های تصحیح خطای محاسبات کوانتومی ایجاد شده‌اند. کیوبیت‌ها بیت‌ دیجیتال داده نیستند؛ ازاین‌رو، نمی‌توان از روش‌های متداول تصحیح خطا، ازجمله روش افزونگی سه‌گانه استفاده کرد. معمولا دانشمندان برای تصحیح خطا در کامپیوترهای کوانتومی، از الگوریتم‌های کوانتومی هوشمند و افزودن کیوبیت‌های بیشتر بهره می‌گیرند.

در کامپیوتر‌های سُنتی، این مشکلات در اغلب مواقع با افزودن بیت توازن حل می‌شود. بیت توازن یا بیت همزادی بیتی منفرد است که می‌تواند به رشته‌ای باینری اضافه شود. درواقع، برای نشان دادن زوج یا فرد‌بودن تعداد بیت‌هایی که ۱ هستند، به بیت‌ها اضافه می‌شود و هدف از آن برابری ارائه روشی ساده برای بررسی خطاهای بعدی است. روش مذکور به‌دلیل ماهیت متفاوت کیوبیت‌ها در کامپیوتر‌های کوانتومی کارساز نیست و تلاش برای اندازه‌گیری آن‌ها داده‌ها را از بین می‌برد. تحقیقات قبلی حاکی از آن بودند که یکی از راه‌حل‌های ممکن برای این مشکل، می‌تواند گروه‌بندی کیوبیت‌ها به خوشه‌هایی به نام کیوبیت‌های منطقی باشد.

با این حال، به احتمال زیاد هزاران کیوبیت استاندارد برای ایجاد یک واحد یکپارچه و بسیار قابل اعتماد نیاز است که به‌عنوان کیوبیت منطقی شناخته می‌شود. این امر بسیاری از ظرفیت محاسباتی یک کامپیوتر کوانتومی را از بین می‌برد. کیوبیت منطقی کیوبیتی فیزیکی یا انتزاعی است که باتوجه‌‌به الگوریتم‌های کوانتوم یا مدار کوانتومی مشخص‌شده عمل می‌کند و بسته به تبدیل واحد از زمان انسجام کافی برخوردار است تا گیت‌های منطقی کوانتوم از آن‌ بتوانند استفاده کنند. گفتنی است هر کیوبیت منطقی می‌تواند به هزار کیوبیت فیزیکی نیاز داشته باشد. برای مثال، محاسبات کوانتومی مهم ازجمله الگوریتم‌های Shor که برای شکستن رمزگذاری کنونی استفاده می‌شود، به هزاران کیوبیت منطقی نیاز دارد.

درحقیقت، پرداختن به مکانیسم‌های خطا را می‌توان به پوست‌کندن پیاز تشبیح کرد که پوست‌گرفتن یک لایه، لایه دیگر را نشان می‌دهد. به‌کارگیری کیوبیت‌های منطقی بسیاری از ظرفیت محاسباتی یک کامپیوتر کوانتومی را از بین می‌برد و کیوبیت‌هایی که اضافه می‌شوند، خود مستعد خطا هستند و با افزوده‌شدن آن‌ها مشکلات نیز گسترش می‌یابد. نکته دیگر این است که تاکنون، محققان نتوانسته‌اند بیش از ۱۲۸ کیوبیت استاندارد تولید کنند؛ بنابراین ما هنوز سال‌ها با کامپیوتر‌های کوانتومی با کارکرد مفید فاصله داریم.

کاربردهای کامپیوتر کوانتومی

یکی از امیدوارکننده‌ترین کاربردهای کامپیوترهای کوانتومی شبیه‌سازی رفتار ماده تا سطح مولکولی است. تولیدکنندگان خودرو مانند فولکس واگن و دایملر از کامپیوتر‌های کوانتومی برای شبیه‌سازی ترکیب شیمیایی باتری‌های خودروهای برقی استفاده می‌کنند تا راه‌های جدیدی را برای بهبود عملکرد آن‌ها پیدا کنند. در این میان، شرکت‌های دارویی از آن‌ها برای تجزیه‌وتحلیل و مقایسه ترکیباتی که می‌تواند منجر به ایجاد داروهای جدید شود، بهره می‌گیرند.

این ماشین‌های غول‌آسا و بسیار پیشرفته همچنین برای مشکلات مربوط به بهینه‌سازی عالی هستند؛ زیرا می‌توانند تعداد زیادی از راه حل‌های بالقوه را به سرعت خُرد کنند. برای مثال ایرباس از کامپیوتر‌های کوانتومی برای محاسبه به‌صرفه‌ترین مسیرهای صعود و فرود هواپیما استفاده می‌کند و فولکس واگن از سرویسی رونمایی کرده است که مسیرهای بهینه برای اتوبوس‌ها و تاکسی‌ها را در شهرها محاسبه می‌کند تا ازدحام را به حداقل برساند. برخی از محققان همچنین تصور می‌کنند که می‌توان از این ماشین‌ها برای سرعت بخشیدن به هوش مصنوعی استفاده کرد.

به‌طور کلی، چندین سال طول می‌کشد تا کامپیوترهای کوانتومی به پتانسیل کامل خود برسند. هم‌اکنون، دانشگاه‌ها و مشاغل که روی آن‌ها کار می‌کنند با کمبود محققان ماهر در این زمینه و کمبود تأمین‌کننده برخی از اجزای اصلی مواجه هستند. اما اگر این ماشین‌های محاسباتی عجیب‌وغریب به وعده‌های خود عمل کنند، می‌توانند کل صنایع را متحول و نوآوری جهانی را شکوفا کنند. این همان دلیلی است که بسیاری از دولت‌ها و شرکت‌های فناوری در تلاش برای دستیابی به برتری کوانتومی هستند.

برتری کوانتومی چیست؟

تصویری از کامپیوتر قدیمی

برتری کوانتومی نقطه عطفی است که در آن یک کامپیوتر کوانتومی می‌تواند محاسبات ریاضی را که به‌طور قابل ملاحظه‌ای حتی از توانایی قوی‌ترین اَبَرکامپیوتر‌ها نیز خارج است، تکمیل کند. هنوز دقیقاً مشخص نیست که چند کیوبیت برای دستیابی به این هدف لازم است؛ زیرا محققان الگوریتم‌های جدیدی را برای افزایش عملکرد کامپیوتر‌های کلاسیک پیدا می‌کنند و سخت‌افزارهای کنونی نیز همچنان بهتر می‌شوند. محاسبات کوانتومی سال‌ها در انحصار دانشمندان و در شرایط آزمایشگاهی در حال توسعه بوده است؛ اما پیشرفت‌های جدید، این فناوری انقلابی را به سمت کاربردهای عملی سوق می‌دهد. دستاوردهایی از جمله سیستم خنک‌کننده قوی‌تر، تراشه‌های پیشرفته‌تر، افزایش ظرفیت پردازش، پیشرفت در فرایند تصحیح خطا و… یادآوری می‌کنند که شاید تا عمومی‌شدن این نوع کامپیوتر در صنایع و تجارت‌های خاص، فاصله‌ای نداشته باشیم.

بحث‌های زیادی وجود دارد که نشان می‌دهد، دستیابی به این نقطه عطف چقدر مهم خواهد بود. به جای اینکه منتظر اعلام برتری باشیم، شرکت‌ها درحال‌حاضر آزمایش کامپیوتر‌های کوانتومی ساخته‌شده توسط شرکت‌هایی مانند آی‌بی‌ام، ریگتی و دی-ویو را آغاز کرده‌اند. شرکت‌های چینی مانند علی بابا نیز به کامپیوتر‌های کوانتومی دسترسی دارند. برخی از مشاغل در حال خرید کامپیوتر‌های مذکور هستند؛ درحالی‌که برخی دیگر از رایانش ابری مبتنی بر کوانتوم بهتره می‌گیرند.

در این مقاله سعی داشتیم که مباحث و مبانی رایانش کوانتومی را به‌صورت قابل فهمی ارائه بدهیم و اگر در بعضی از بخش‌ها کمی گمراه شدید، نگران نباشید؛ چراگه قطعا تنها نیستید. ازآنجاکه کل حوزه محاسبات کوانتومی هنوز تا حد زیادی انتزاعی و نظری است، تنها چیزی که ما واقعاً باید بدانیم این است که محاسبات کوانتومی درصورت تحقق وعده‌ها و گذار از چالش‌های متعدد، یک رنسانس جدید را در آینده صنایع ایجاد خواهد کرد و تأثیر زیادی در نحوه انجام تجارت، اختراع داروها و مواد جدید، حفاظت از داده‌ها، کاوش در فضا، پیش بینی حوادث آب‌وهوایی و بسیاری از زمینه‌های دیگر خواهد داشت. 

برای مطالعه تمام مقالات مرتبط با رایانش کوانتومی به این صفحه مراجعه کنید.

بمنظور اطلاع از دیگر خبرها به صفحه اخبار فناوری مراجعه کنید.
منبع خبر

برچسب ها

نوشته های مشابه

بستن