量子コンピューターの “よくある誤解” Top10

量子コンピューターは量子力学の原理を利用して計算を行う次世代コンピューターで、多くの国の政府が重点分野に指定、IT企業も開発競争に参入し、近年日本でも関心が高まっています。5年くらい前には「量子コンピューター」の文字を、毎日のようにニュースやウェブの記事などで目にすることになろうとは「思ってもいなかった」というのが正直なところです[1, 2]。

さて一方で、量子コンピューターに関する誤解も多く見受けられます。量子コンピューターは量子力学の原理を利用して計算を行う次世代コンピューターですが、その「量子力学」を直感的に理解するのは困難です。

量子力学が直感と反する様は、かのリチャード・ファインマンも「もしも量子力学を理解できたと思っているならば、それは量子力学を理解できていない証拠だ」と表現したほどです。そのため、ITやコンピューターの専門家はおろか、たとえ物理の専門家であっても、量子コンピューターの振る舞いを直感的に正しく理解することはとても難しいでしょう。

報道や政府が出す文章などにも、いくつか「誤解」が見受けられるので、ここでその代表的なものをご紹介します。

1. 量子コンピューターは重ね合わせ状態を用いた超並列計算ができるので高速。

これはよく耳にするのですが、誤りです。たしかに、量子力学の「重ね合わせの原理」によって無数の計算を同時に試すことはできます。しかし、何も工夫をしなければ、正しい答えはとても低い確率でしか現れず、たくさんの誤った答えに埋もれてしまうでしょう。正しい答えを取り出したいなら同じ計算をたくさん繰り返す必要があり、それではトータルでみてスピードアップになりません。

2. 量子コンピューターはどんな問題でも従来のコンピューターより高速に計算できる。

前項で説明した困難により、特定の問題についてだけ高速計算できることがわかっています。量子コンピューターは、重ね合わせの原理を使って多数の計算を並列化し、その無数の答えを表す波どうしを干渉させて正しい答えの確率を増幅して答えを出します。因数分解や検索など特定の問題については、上手に増幅する方法が知られていますが、どんな問題でも使える一般的な方法は残念ながらわかっていません[3]。

また、この手の話の「高速」は、あくまで理論的な計算ステップ数の少なさの話であり、量子コンピューター実機での計算所要時間ではない点にも注意が必要です。

3. 量子コンピューターは組合せ最適化問題を解くのが得意。

「組合せ最適化問題」は今のコンピューターの手に負えない難問の代表例としてよく紹介されます。組合せ最適化問題は無数にある組合せのうち条件を満たすものを探しあてる問題で、サイズが大きな問題では答えの候補の全件チェックは天文学的な時間が必要です。量子コンピューターは量子重ね合わせによる並列計算で総当たりすることができ、スピードアップすることが可能です。

この方法はGroverの検索アルゴリズムとして知られ、通常のコンピューターでは総当たりに$2^N$回必要な計算(問題サイズがN)でも、量子コンピューターなら$2^{N/2}$回ですみます。指数部分が半分になるだけでも、十分魅力的です。

とても粗い見積もりですが、問題サイズ$N=50$の問題に対して、1秒間に$10^{16}$回の計算ができるスパコン(浮動小数点演算では10ペタFLOPS)で総当たりしたときには、$2^{50} \times 10^{-16} \approx 115$秒で解くことができます。一方で、1秒間に1億量子計算ステップ(100メガQuOPSとでも言うのでしょうか)で計算できる量子コンピューターを使って、Groverのアルゴリズムを実行したとき、$2^{50/2} \times 10^{-8} \approx 10$秒余りで計算終了します。これではご利益はあまり感じられませんが、サイズを$N=100$にすると、計算時間はスパコンの402万年に対して量子コンピューターは130日となり、かなり印象が変わります。もちろん、130日計算し続けるのは現実的ではなく、どうも「得意」とまでは言いきれないような気がします。

もちろん、問題サイズに対して$N^3$ステップなどで計算できる優れた量子アルゴリズムが見つかれば、上記の$N=100$の問題も$100^3 \times 10^{-8} =0.01$秒で解くことができるので、そのときには晴れて「量子コンピューターは組み合わせ最適化問題が得意」と言えるかもしれません。

さて、総当たりが非現実的な時間かかると予想される場合には、基本的には、総当たりするべき場合の数を上手に削減して厳密解を求めるか、答えの厳密さを諦めて近似の解を求めるか、ということになります。実用的には、そこそこ良い解が高速に得られれば、それで十分ということも多いでしょう。量子アニーリングはこのような近似解を求める方法として注目され、実問題への適用など活発な研究が進められています[4]。こちらも、得意かどうかはもう少し研究が進んでから見えてくるでしょう。

4. 今のコンピューターは巡回セールスマン問題が苦手。

上記の誤解の逆バージョンの誤解です。たしかに「巡回セールスマン問題」は代表的な組合せ最適化問題で、数学的には「NP困難」という難しい問題に分類されます。しかし、数多くの取り組みの結果、現在のコンピューターでは5万都市規模といった巨大な問題についても厳密解を計算できます[5]。感覚の問題ですが、解ける問題サイズの点では、「苦手」とまでは言い切れないような気がします。

また、巡回セールスマン問題の厳密解が量子計算や量子アニーリングによって効率よく求められたという報告もなく、「量子コンピューターは巡回セールスマン問題が得意」も証拠不十分でしょう。

5. ゲート型量子コンピューターは汎用機で、量子アニーリングマシン(量子アニーラー)は組合せ最適化専用機。なので、ゲート型量子コンピューターの方が優れている。

ゲート型量子コンピューターはプログラムによって様々な計算を行うことができるので確かに汎用です。しかし、高速計算が保証されているアルゴリズムは限られており、その意味ではほぼ専用機です。逆に、量子アニーラーは、組合せ最適化問題として定式化さえできれば、様々な種類の問題に対応できるため、ある種の汎用性があるともいえます。

そもそも、汎用機が専用機より優れているとは言えません。むしろ、コンピューター開発の歴史上、汎用CPUの不得意な計算を専用チップで処理する手法はよく用いられます。最近での代表例はGPUでしょう。最近では、機械学習専用チップ(AIチップなどとも呼ばれます)の研究開発も精力的に行われています[6]。

したがって、汎用機・専用機の枠組みだけで比較したのでは、それぞれの発展を少しずつ見誤ってしまうでしょう。私たちのくらしに必要な様々な情報処理のうち、量子力学を使って加速できそうなものは量子プロセッサーが計算し、それ以外はCPUやGPUに任せる、というような適材適所の利用が進むのではないでしょうか。

6. ゲート型の量子コンピューターもクラウドで提供されるほどであり、もう基礎研究段階ではない。

誤解です。現在、登場または発表されているものは、理想的な「誤り耐性量子コンピューター」の開発の長い道のりの中で、実現できる部分を先行的に市場投入し応用を模索するという、近似的な量子コンピューターです。

理想的な「誤り耐性量子コンピューター」は、論理量子ビットに論理量子ゲート演算を行うデジタル計算機です。この実現は海外では「聖杯(Holy Grail:その分野での未解決問題で、皆が追い求める最終目標)」や「ムーンショット(Moonshot:アポロ計画のように短期的な収益性を期待することなく行う、野心的で画期的なプロジェクト)」などと表現され、まだまだ道のりは長そうです。

一方、現在の「近似的量子コンピューター」は物理量子ビットに物理量子ゲート操作を行うアナログ計算機の様相を呈しています。現在の技術的チャレンジは多数の量子ビットの集積化と、それによる誤り訂正符号の実装です。誤り耐性量子コンピューターの実現という長期目標からは、現在はまだ基礎研究段階にあるといえるでしょう[7]。

7. 量子ビットは超伝導回路による実現方式が有望であり、あとはほぼ見込みがない。

まだ、そうとも言いきれません。確かに、超伝導回路にはいくつかのメリットがあり、多くの研究グループで研究がなされ技術的蓄積もあります。しかし、歴史的には、何人もノーベル賞を出しているイオントラップや冷却原子が、量子技術の「王道」と言えます。実際、一部の性能指標は超伝導量子ビットを上回っており、光通信との相性が良いというメリットもあります。

この他にも、半導体量子ドット、光、ダイヤモンドなども、量子ビット実現系の候補として今なお研究開発が進められています。計算機用の量子ビットに限っても、超伝導回路以外の系に見込みがないかどうか判断するのはまだ時期尚早です。

また、たとえこれらの量子ビット方式の大規模量子コンピューターが実現しなくても、その開発で培われたデバイス技術・光学技術・制御技術などは、量子センサー・量子標準・量子通信など、量子技術の様々な場面で大活躍することでしょう。

8. 量子コンピューターはショアの因数分解アルゴリズムによって公開鍵暗号を攻撃できるため、いくつかの公開鍵暗号はすでに危険である。

現実に使われている公開鍵を攻撃できるほどの性能はいまの量子コンピューターにはなく、今すぐに公開鍵暗号の安全性が脅かされることはないと考えられています。

確かに、現在安全とされる2048ビットの暗号鍵(十進数で617桁の数)であっても、量子コンピューターならShorのアルゴリズムによって100秒程度で因数分解することも理論的には可能です[8](10時間という見積もりもあります[9])。しかし、この計算には数十億量子ビットの量子コンピューターが必要で、この10〜20年では実現しないでしょう。米国の国立標準技術研究所(NIST)は、2048ビットのRSA暗号の安全性は2030年までは確保できると発表しています。

もちろん、様々な暗号システム全てを交換するのには長い時間がかかるため、今から対策しても早すぎることはないでしょう。量子コンピューターによる因数分解攻撃でも安全性が保たれる「耐量子コンピューター暗号」の標準化プロジェクトも始まっています[10]。

9. 量子コンピューターの振る舞いはスパコンでもシミュレーションできない。だから量子コンピューターはすごい。

なんとなく言いたいことはわかりますが、やや不正確です。理論的には、量子コンピューターのどんな振る舞いも今のコンピューターでシミュレーションできます。なんだ、シミュレーションできるのならつまらない、と思うかもしれませんが、実際に計算するのは結構大変です。

50量子ビット程度の量子コンピューターをシミュレーションすることは、もはや手元のPCでは不可能です。スパコン級の数ペタバイトのメモリが必要になるほか、量子コンピューター実機であれば1ミリ秒以下で終わるようなゲート操作もシミュレーションでは数秒もかかります[11]。このことから、量子コンピューターに有利な問題設定であれば、近い将来、量子コンピューターの計算をスパコンでシミュレーションして検証することさえ難しくなることは容易に想像できます。

もし、このような量子コンピューターのパワフルな計算能力が、実用的な問題に利用できるようになれば、そのときは私たちのコンピューターに対する見方が大きく変わる時になるでしょう。量子コンピューターが多くの人を魅了して止まない大きな理由のひとつは、この底知れないポテンシャルにあると思います。

10. 量子力学は古典力学を上回る。だから量子コンピューターも古典コンピューターを上回るのだ。

現代のコンピューターは、物理学で言うところの古典力学や古典電磁気学に従って動作する計算機です。そのため、物理学者は今のコンピューターを「古典」コンピューターと呼びます。この「古典」には古いという意味はなく、単に「非量子」くらいの意味です。

さて、この古典コンピューターを上回る計算能力のあるコンピューターを作りたいのであれば、その計算原理は古典物理学を超える理論に求めることになります。量子力学は、そのような理論のうち、実際に自然が許すもっとも典型的な理論といえます。元となる原理は自然法則なので、それに従って動作する計算機をつくることに原理的な障害はないわけです。

したがって、量子力学の原理に基づいて計算を行う量子コンピューターは、古典コンピューターを超えるコンピューターの筆頭候補です。もちろん、何の理論にも基づかないコンピューターを作ってもよいのですが、趣味の世界の域を出ないでしょう。

サイエンスとして重要なポイントは、この「上回る」ことを実験で検証することです。それには、スパコンで計算してもとても長い時間がかかる問題でも、量子コンピューターなら短時間で済むような特別な問題を見つけてきて、実際に計算させて確かめること以外にありません。研究者の間では「量子スプレマシー(量子超越)」などとも呼ばれ、量子情報科学の重要なマイルストーンだと考えられています[12]。

量子コンピューターは、「計算とは何か?」「難しさとは何か?」といったコンピューティングを考え直す新しい視点を提供してくれることでしょう。今後のこの分野の発展にますます目が離せません。