(中)さて、量子コンピュータ(QC)は2030年に掛けてどう推移するのか?(中)
Finke氏の講演の続き。。。。と言うか、氏の講演内容を踏まえつつ、筆者が突っ込みを入れたり入れなかったり、段々独演会になってきた。このブログは同じタイトルの(上)の続き。まず(上)を読んでね。「さて、量子コンピュータ(QC)は2030年に掛けてどう推移するのか?(上)」
量子通信、量子計算、量子検知技術ははどのようにしてこれからの20年の間に推移するのか?
続いてFinke氏は次の図(正確には、筆者がFinke氏の図を意訳・簡素化した)を提示した。この図に突っ込んでみる。
この図はGQIの記事の図1から転載して、翻訳をしてみた。講演でもGQIの記事でも説明不足なので、筆者の独断と偏見で解説してみた。量子の分野では、大きく分けて「量子通信(Quantum Communications」、「量子計算(Quantum Computing)」と「量子検知(Quantum ASensing)」だ。QCWareでも3つを柱にセッションが組まれていた。(Q2Bのプログラムはここで。)記事の図では、色の濃淡でもう少し詳細に楽観・悲観の度合いを表している。筆者は、もっと簡単に2色で分けてみた。元々、記事は投資家用と言うことなので、今後の動きが楽観的に進むのか、悲観的なのかのシナリオが示されている。緑は楽天的なシナリオ、赤は悲観的なシナリオだ。図では、それぞれの時期にはっきりと年代を記しているのが、興味深い。概ね他の予測では、あまり年代を明記していない。少々外れたとしても(筆者は大きくは外れることはないと思っている)、この方が議論をする際に具体性が増す気がする。
上の図を理解するのは幾つかのポイントを掴めばそれほど困難ではない。QCは今までの技術と比較するとかなり毛色が違うが、新しい技術が市場に浸透していく過程を考えれば、その浸透の過程はそれほど大きく変わるものではない。楽観的なシナリオに移行するその場合は、Jeffery Moore氏の “Crossing Chasm“のシナリオ通りに行くとすると、
楽観的なシナリオとは、
- 既存の技術との競合から抜け出しはっきりとした利点(コスト削減、使い勝手増大、小型化、時間短縮化、速度増加、正確さ・精度増強等)の増大で優位性が明白となり市場へ浸透・拡大
- 特殊なアプリケーションや分野に展開して、それで足場を固め、それに近いアプリや分野に浸透・拡大して、その後広範囲に拡大
- 小規模市場から徐々に大規模市場へ拡大
悲観的なシナリオに陥る要素は、(上の裏返しだが)
- 既存の技術に比較して、かなりの度合いで容易にアクセス・安価・速度増加・リソースの軽減・使い勝手の改良が1つもない。
- 特殊なアプリケーションや分野で成功しても、それ以降の発展がない。つまり他の分野への応用が効かない。しかも、成功した分野が小さくて大きな影響がない。
- 小規模市場では成功したが、大きく広がることはない。新しもの好きにしかアピールしない。
3つの分野を1つ1つ見てみよう。
量子通信
量子通信で従来の通信を改善する点を述べてみよう。
- 従来よりもセキュアーな通信
- データの完全性
- スピード増加と効率化
- スケーラビリティの増加
GQIの図だと、通信そのものの技術的困難はあまり触れらておらず、QCによる現在の暗号手法破壊かQCに耐性のある暗号法が成功裡に開発され、それが既存の大部分のネットワークに適用されるかを問題にしている。筆者の理解では量子通信の技術的な問題点はこの他にもある。囲いこみを参照のこと。
量子通信で問題になる点
- 量子状態の維持:Qubitのdecoherence(環境からのノイズで量子状態を維持する困難)
- 量子通信には殆どの場合光子を利用している。1つの光子のソースを確保・保守することの困難さ。
- 既存の通信インフラとの結合方法がまだ確立・安定していない。例えば、通信には量子repeaterが必要だが、それも含めて他の通信用の機器や技術が確立されていない。
- 計測法が確立されていない。
Edge BrowserよりCopilotに聞いてみた結果
確かに、既存の暗号をShorのアルゴリズムで破られると大問題である。GQIの予測によるとそれはTerra Quopsが達成されることが前提であるので、上の図だと早くて2035年ということになる。まだ10年以上あると言えるのか、もう10年ちょっとしかないと言うべきか。当然、暗号の技術は重要であり、今あるRSA暗号システムもShorのアルゴリズムによって破られてしまう。その影響は絶大であり、全てのECが安心して使えなくなってしまう。たとえば、Amazonや楽天からのネットでの買い物、online banking、online trading、企業間の取引などだ。まあ、多分これが大問題なので、後の技術問題はあまり大きく取り上げていないのだろう。
で楽観的な場合はうまく量子耐性のあるネットワークに移行することができるという場合で、悲観的な場合はできない場合だ。因みに出来ない場合はどうなるんだろう。あまり、この場合想定される記事を見たことがない。。。。。
上の図で示されていないが筆者が囲みで指摘した問題は、GQIの図で「段階的に進む量子ネットワーク」の中に含まれていると理解する。また後で別のブログで量子通信の現状、進捗や問題点などを述べてみたい。
量子計算
元々量子がらみでは、量子計算が主体だった。今のNISQが進化して、広範囲で量子の優位性があるものが発見できるのか、つまり古典版からの競争を振り切れるものができるのかと言う課題がある。それができないと「量子の冬」が訪れるかもしれない。AIは何度も「AIの冬」を経験して、「見込みがない」と投げられて来たが、最後にものになった。例えば,「(カナダマフィアによる)AI Conspiracy(AIの陰謀)」。もう AIはダメだと皆が投げた時(研究費も満足に集められなくなり、多くの研究者がこの分野から去った時)、カナダの3人の研究者が諦めずに研究を続けDeep learningの完成となった。3人は、Geoffery Hinton、Yann LeCunとYoshua Bengioだ。その辺の詳しい話はこの記事に記載されている。
Geoffery Hinton氏 Yann LeCun氏 Yoshua Bengio氏
Hinton氏は2024年のノーベル物理学賞を授与されている。
出典:ノーベル財団
6-12ヶ月前に「量子の冬」と言うような発信があったような気がする。日本の量子コンピュータで事業を展開してそれに基づいて独自の情報を発信しているBlueqatの湊社長がそのように述べていたと思う。湊氏はかなり突っ込んだ内容でプレゼンやその他の発信を行なっているので、非常に興味深い。氏のXはここから。実に面白いので是非みてみてね。
因みに左は湊氏のXの本人のイラスト、雄一郎氏 @yuichiro_minato2 blueqat CEO contact ….
最近の氏のXのポストでは、元量子コンピュータ屋のZapataの倒産をもって「量子の冬」の1つの表れだと発信しているけど、Zapataは2021年に量子ビジネス不振のためフォーカスをMLなどに大幅に変更しており、多くの会社がある新しい分野で競争した結果、負けて撤退・倒産しただけと筆者は見る。例えば、Ethernetが勝ち残る前に多くのネット技術を掲げた会社が競合した。囲みを参照。でこれを持って「量子の冬」の一部とは見ない。
Ethernetに破れた技術を推奨した会社と技術
- IBMのToken Ring
- AppleのApple Talk
- NovellのNetware
- GEのMAP
- HPのNSA・NNM
もちろん全て倒産した訳ではないが、これらの技術は今どこかで使われているのだろうか。
「量子の冬」については、楽観か悲観か、それぞれの立場に立てば、どちらにも、かなり信憑性のある議論ができると思う。筆者は去年の暮れくらいに聞かれたら「量子の冬」はかなりあり得ると言ったと思う。しかし、殆ど毎日Google Newsのkeyword Altertで最新のニュースを見て、Xで発信、Linkedinで毎日、Infleqtion、QuEra、Quantinuum、GQI、その他の研究組織や量子専門の市場調査会社の発信を見ていると、「量子の冬」があっても暖冬で、むしろ春は近いと感じている。
直接は関係ないけれど、難問にぶつかった時の解決法という点で、ケネディ大統領は1962年に「この10年以内に月に到達する」と宣言した。実際の月への有人飛行と着陸は1969年だった。その時のビデオを貼っておく。筆者も「この10年以内にQCの実用化が起きる」と宣言しておく。「量子コンピュータは簡単だから、開発するんではない。」「量子コンピュータは複雑怪奇で開発が非常に困難だから開発するのだ。」筆者談。
なお、演説の肝の部分はここで。
出典:Rice University Youtube ビデオのScreen Shot、上のビデオの長い版、1962年9月12日、Texas州 Rice Universityにて
上の図では、量子計算の技術的な困難(囲み参照)に特に言及しておらず、典型的な問題を指摘している。
量子計算の現在の技術的問題
- エラー訂正
- Decoherence
- スケーラビリティ
- ハードウエア
- アルゴリズム
- Qubitの接続
それぞれについては、既知なので、ここでは述べない。
量子検知(Quantum Sensing)
上の図によると、量子量子検知の分野で技術的問題と言うよりは、
- 特殊なアプリや分野から浸透
- 大きく必要とする分野への浸透
- 既存の検知方との競合
などが問題だとしている。ある意味当然の問題を述べている。量子検知の技術的問題点に関しては囲い込み。
量子検知の技術的問題点
- 外部からのノイズ、温度、振動、電磁気の影響を受けやすい。
- 量子のコンポーネントと古典コンポーネントとの結合が困難。
- スケーラビリティを実現するのは困難
- Decoherenceの問題。
- 検知方式の標準化が遅れており、異なったコンポーネント間の結合が困難。
- 開発コストが莫大。
- 全体のシステムが複雑で開発が困難。、
- 検知されたデータが莫大な量で複雑、複雑なアルゴリズムを必要
- 研究から商業への応用が困難
Edge BrowserのCopilotによる
ここで、採用される産業が軍事・防衛産業だと述べている。まずそうだろうなと思う。その他にも、
- バイオ・メディカルやヘルスケア
- ナビゲーション・位置確認
- 地質学や監視
- テレコム
- 自動車
- 家電
それぞれは、市場が育って採算が合わないとなかなか動かないが、軍事・防衛産業は採算度外視だからだ。
筆者は現在まで、量子計算の技術や市場やベンダーなどのニュースは追いかけていたが、今後量子通信や量子検知にも注意を払いたい。
QCスタック
Finke氏はQCスタックにも簡単に触れた。しかしながら、あまり詳細ではない。このGQIの記事(記事の図2)を読んでも、この図を見ても正直なところあまり良く分からない。一般的に、スタックといえば、ハードなど一番具体的ではっきりしたものから、抽象度を上げて一番上がアプリとなってる。GQIのstackの層が記事で提示されている。(この記事の図2に示されている。)例によって筆者の独自の偏見と思い込みで非常に簡単にしてみた。正直なところGQI の図2も非常に簡単で、記事の説明も簡単なので、そうですかと言う感じだ。また、細かいことだが、NISQの現在とNISQの進化したものとを、「現在のNISQ」と「真のNISQ」と記している。異なった図では「Intermediate」または「中途、中級」と記している。まあ、対象の聴衆が異なっているので、違う言葉を使っているのも納得がいく。話の内容から「真のNISQ」は2025-2030年続くと理解した。
筆者が簡素化したQuantum Stack
筆者の簡単なstackを使ってGQIの説明を解説してみる。筆者の興味はGQIがどこで、「NISQ現在」と「真のNISQ」の線引きを行なっているかだ。年代から見ると、「NISQ現在」は現在に至るNISQで2025年までくらい。2025-2030年以降にNISQは「真のNISQ」になる。層ごとに見ていこう。
ハードウエア、Qubitや量子回路層
「真のNISQ」は、Quopsが数千以上ということらしい。(GQIのこの記事の図3によると)量子回路のQuopsは(qubit数)X (量子回路の深さ)で定義される。量子回路の深さは囲みを参照。
量子回路の深さ
量子回路の深さ(depth)は、量子コンピュータにおける量子ゲートの操作の最大数を指す。具体的には、量子ビットが初期状態から最終状態に至るまでに通過するゲートの数だ。深さが大きいほど、計算に時間がかかる可能性がある。
「NISQ現在」と「真のNISQ」のqubit数を見てみる。実用に耐えるものは100万qubitと言われており、どちらも遠く及ばない。Gate 演算精度に関しても精々10-100倍だし、効率の良い古典版との競争でもはっきりとした勝つ点を示せていない。そういう面では、上の2つのNISQはどちらも「量子の優位性」を示すことができない。(ところで、「量子の優位性」に関しては、筆者のFinke氏の2023年の講演を解説したブログで述べているが、ここで復習のため囲みに再度載せておいた。)
Finke氏は「真のNISQ」と初期FTQCは同時期(2025-2030年)に存在する。ユーザーはどちらでも好きな版を使えると述べた。更に、氏は、「真のNISQ」でも使用に耐えるアプリが存在する(かもしれない)と述べた。これについては、今後NISQであってもそのようなアプリケーションがあるかもしれない。個人的にはQubit数、Gate演算の精度、とVQA(量子変分法)の現状では限界があり今後も出てくる可能性は著しく低いと思う。
また、Finke氏はNISQを専門に扱うベンダーがあるというが、後で示す様に先行しているQC数社は全てNISQを抜け出しできるだけ早く初期FTQCに向かおうとしている。現在に至るも複数のQCの研究者がNISQ VQAベースのアルゴリズム改善に従事している。しかし、現在の市場の流れを見ると、今後もNISQ VQAベースのアルゴリズムを更に改善していこうとは思わないと思う。理由は簡単で、これからはエラー訂正の改善からくるFTQCの時代だと市場がはっきりと示されているからだ。
QCの優越性と超越性
量子超越性(りょうしちょうえつせい、英: Quantum supremacy)とは、プログラム可能な量子デバイスが、どの様な古典コンピュータでも実用的な時間では解決できない問題を解決できることを(問題の有用性に関係なく)証明することである[1][2]
それよりも弱い量子優位性 (quantum advantage) は、量子デバイスが古典コンピュータよりも速く問題を解決できることを表す
量子超越性には概念上、処理能力の高い量子コンピューターを構築するエンジニアリングタスクと、知られている最善の古典アルゴリズムに比べて、その量子コンピュータを用いて超多項式 (en:superpolynomial)の高速化ができるような問題を見つける計算複雑性理論上のタスクが含まれる[3][4]。この用語は元々ジョン・プレスキルによって広められたが、量子コンピューティングの利点、特に量子システムのシミュレーションの概念は、 ユーリ・マニン (1980) [5]およびリチャード・ファインマン (1981)の量子計算の提案にさかのぼる[6]。
「量子超越性」wikiより一部引用
量子層
この層では、NISQ時代は物理Qubitの時代で、Qubitや量子回路そのものを扱う層だ。現状は圧倒的にQubitの数が少なく、Qubitの信頼度は著しく低い。量子回路は1つか複数のQubitに対してGate演算を複数回施す。このGate演算もまだまだ精度・正確度・忠実度が低い。その為現状のQC回路では、折角1990年代に開発された理想的なQC上で実行されるアルゴリズムは実行できない。つまり、「量子の優位性」を主張できるベースがない。筆者は、GQIが現状のNISQと進化したNISQをどの様に区別しているのか、見てみた。「真のNISQ」に関しては、Qubit数の不足を指摘していない。代わりに「真のNISQ」では、Qubitや回路では、演算の精度や正確さを上げている。現在でもAtom Computingは1,000以上のQubitを搭載しており、IBMは1,000qubit以上のCondorを発表している。QuOpsは(Qubitビット数)* (回路の深さ)だから、1,000 Qubitあれば、Gateが1つでもキロQuOpsだが、当然これではまともな演算は行えない。
因みにGoogleは2019年にQCの優位性を示す実験を行いその結果を発表した。直後にIBMは自前のsuper computerでそれを凌駕するような結果を発表してGoogleの結果を問題にしなかった。5年後の2024年GoogleはノイズがQCの処理能力を制限し、古典コンピュータに敗北する閾値を指摘した。つまりこの閾値を超えなければ、QCが必ず古典コンピュータに勝利できる訳だ。もちろん、特殊な応用に限るが。しかし、このことは大きい。
なお、FTQCの時期になると、小さめのqubitの塊を幾つも繋ぎ古典コンピュータのコアにあたるものが開発されるだろう。これは多分間違いないだろう。特に、論理Qubitの話は書かれていないが、当然FTQCの時期であるので、実用に耐え得る論理Qubitや信頼度の高い演算を行えるGateは実現されていると想定している。
コントロール・コンポーネント(ロジック)
コントロール・コンポーネント(ロジック)(CC)に関しては、古典版でもそうだが、一般的にあまり議論されることはない。しかしながら、QCではこのCCが、ハードウエア、フレームワーク、アルゴリズム、アプリケーション層と同様重要だ、。CCの役割については囲みを参照のこと。
QCのコントロール・コンポーネント(ロジック)(CC)の役割
- Qubitの初期化
- QubitのGateの管理
- エラー訂正
- Qubitの計測
- QubitやQubit間のタイミングや同期
- adaptation
- この他に量子回路に直接関係ない部品やシステムとの結合を調整、例えば冷却装置やマイクロ波のシステム
GQIの図をみると、「NISQ現状」と「真のNISQ」のCCの部分は何も書かれていない。どうやら、GQIはCCの機能を「エラー訂正」のみとしているようだと理解できる。他にCCの項目が書かれているのは初期FTQCだ。そこでは、スケーリングの問題が指摘されている。確かに、Qubitの数が増えてくれば複数のコンポーネント間の接続が問題になる。初期FTQCの段階でスケーリングが問題となるのは理解できる。そして、大規模FTQCになると何も書かれていないことで、スケーリングの問題が解決しているのだろう。もし、そうでなければ、大規模なFTQCは構築できないからだ。
アーキテクチャーとフレームワーク
アーキテクチャー層に関しては、NISQ時期には何も書かれていない。FTQCの段階に入るとアーキテクチャー層では、エラー訂正のオーバーヘッドが挙げられている。そもそも、NISQにはエラー訂正の機能がない。そしてターボ段階だと「不明」となっている。それは「エラー訂正」機能が十分全体に組み込まれて問題にならなくなるのだろう。
フレームワークでは「NISQ現状」とそれ以降では全く異なっている。「NISQ現状」では、「異なった対象のプロセッサー」という意味は、Qubitの実装方法にそれ専門の異なったフレームワークが必要だと意味だと理解している。それってQubitとフレームワークが直結してるということか。それならわからないでもないけれど、Google、AWS、Microsoftなどは、自前のフレームワークで異なった種類のqubitをサポートしているので、どうもよくわからん。それ以降は「全ての開発のステージに複数の層からなるハイブリッドのリソースが必要」という意味だけど、GQIの記事ではここは全くそのまましか書いていない。一般的にそんなリソースが必要のは、それはそうだろうというしかない。どうも「NISQ現状」と「真のNISQ」の間で区別されるのが良くわからない。ターボ時期に関してはなんの記述もない。
アルゴリズム・ソフトウエア
ここでは、2つのNISQでは、量子変分法を採用している。これもよく知られていることだ。初期FTQCの時点で適用可能なアルゴリズムがはっきりとは確認されていない。それをはっきりと確認されないと、「量子の冬」の冷たい風が吹くかもしれない。その後、規模が大きくなったQCが十分複雑なアルゴリズムを実行できるようになったとして、その実行速度が「二次的な高速化」だけではその存在価値が低いので、「指数関数的な高速化」が望ましいと述べている。(「二次的な高速化」と「指数関数的な高速化」については囲みを参照)。「二次的な高速化」で知られているのは、Groverのアルゴリズム、「指数関数的な高速化」で知られているのはShorのアルゴリズムだ。「多項式時間の高速化」で知られているのは、変分法の1つのQAOAだ。
二次的な高速化と指数関数的な高速化と多項式時間の高速化
二次的な高速化:二次の高速化とは、量子アルゴリズムが古典的なアルゴリズムよりも大幅に速く問題を解決できる状況を指します。具体的には、問題を解決するために必要なステップ数を (N) から sqrt{N} に減らすことによって実現されます。つまり、古典的なアルゴリズムが問題を解決するために (N) ステップかかる場合、二次の高速化を備えた量子アルゴリズムでは約 sqrt{N} ステップしか必要ありません。
指数関数的な高速化: 量子コンピューティングにおける指数関数的な高速化とは、量子アルゴリズムが、最もよく知られている従来のアルゴリズムよりも指数関数的に速く問題を解決できるシナリオを指します。つまり、従来のアルゴリズムが問題を解決するのに時間 (T) かかる場合、指数関数的な高速化を備えた量子アルゴリズムは、時間 log(T) または (T) の指数関数的に小さい他の関数で問題を解決できる可能性があります。
多項式時間の高速化:量子コンピューティングにおける多項式時間による高速化とは、量子アルゴリズムが多項式時間で問題を解決できる状況を指します。これは、同じ問題を超多項式時間または指数時間で解決する可能性のある最もよく知られている従来のアルゴリズムよりも大幅に高速です。つまり、従来のアルゴリズムが問題を解決するのに時間 (T) かかる場合、多項式時間の複雑さを持つ量子アルゴリズムは、ある定数 (k) に対して時間 (T^k) で問題を解決できる可能性があります。
出典:Copilotさん
ターボ時期では、QRAM(Quantum Random Memory)とQSVT (Quantum Singular Value Transformation)の「脱量子化」と書かれている。QRAMとQSVTは下の囲みで。
脱量子化
脱量子化または逆量子化:当初は大きな量子的優位性があると考えられていた特定の量子アルゴリズムが、特定の条件下では従来のアルゴリズムによって効率的に複製されるか、またはそれを上回るパフォーマンスを発揮できることを実証するプロセスを指します。この概念は、適切なデータ アクセスによって従来の方法でも同様の結果を達成できることを示すことにより、一部の量子アルゴリズムの認識されている優位性に疑問を投げかけます。
出典:Copilotさん
「脱量子化」または「逆量子化」に関しては囲みを参照。
QRAMとQSVT
QRAM: 従来のランダム アクセス メモリ (RAM) の量子版です。量子重ね合わせを利用してデータの保存と取得が可能で、複数のメモリ アドレスに対して同時にクエリを実行できます。この機能は、多くの量子アルゴリズム、特に量子機械学習、量子化学、最適化のアルゴリズムにとって重要です。
QSVT:行列の特異値を効率的に操作できる量子アルゴリズムを設計するための強力なフレームワークです。この手法は、量子線形代数、量子機械学習、および行列演算が基本となるその他の分野で特に役立ちます。
出典:Copilotさん
QRAMとQSVTの「脱量子化」と2つの共通点
一般に「量子アルゴリズム」を脱量子化すると言うことは、量子化したアルゴリズムを使う「錦の御旗」が、他の条件よりも弱い場合だ。これから数十年も経てば、量子コンピュータはハードもソフトも製造・運用のコストの点で、古典版と同じ程度になるのかもしれない。しかし、その時点まで行かないうちは、明らかに量子版はコストが掛かる上に大規模な設備も必要だ。分野・アプリや実行環境にもよるので、一概には言えないが、量子版を使用しなくても良いと言う判断もある。
そこで、GQIがこの2つの量子アルゴリズムを取り上げて「脱量子化」に取り上げた理由だが。この辺り勉強不足でよくわからない。そこで、我が師のCopilotに聞いてみたらその答えは、この2つの量子アルゴリズムに関しては次の場合では、「古典アルゴリズム」で十分対応できるとのこと(詳細は省略)。
- データアクセスの状況:2つのアルゴリズムはどちらもこのアクセス状況(ここでは、これ以上の詳細は記さない)が満たす条件が厳しい。それなら、別に古典版でも良いと言うことになる。
- 低ランクまたはスパース行列: 行列がこの条件を満たすのであれば、古典版で十分対応できる。
- QML(量子機械学習):場合によっては古典版が十分機能を果たす。
Finke氏の講演でもGQIの記事の中でも、詳細な説明はなかった。というか、全く触れられていない。
アプリケーション
「NISQ現状」では「粒子優位性」ははっきりと存在すると断言できない。「真のNISQ」では古典コンピュータとの競争で、果たして「粒子優位性」が示せるかと言うことだが、上で取り上げたようにGoogleがノイズをコントロールできれば、QCが勝利する。ノイズを制御するということは、エラー訂正を行い物理Qubitから論理Qubitに移行することであり、それは取りも直さずFTQCに移行するということだ。一挙に完全なFTQCには到達できないだろうが、地道な研究・開発と市場が「これはいける」と見た時のエネルギーを考えとき、思わず楽観的になってしまう。果たして化学シミュレーションに「指数関数的スピードアップ」あるのかと言う疑問も枠が。一般的に、QCの適用範囲は「化学」と「暗号化」と言われている。そのためなのだろうか。