研究紹介
コンピュータの進化により、情報化社会での私たちの生活は想像を超えて発展してきました。しかし、現在のコンピュータを支える技術がどこまで進歩しても、原理的に処理が困難な問題は存在します。では私たちの世界を記述する物理法則の根本原理に立ち返り、「情報処理とは何か?」から考え直したらどうなるでしょうか? これに挑戦するのが量子情報科学です。
量子情報科学とは
量子情報科学は、量子力学を活用した新しい情報処理の枠組みを科学する分野です。量子力学とは、原子や微弱な光などに生じるミクロな物理現象を記述できる物理法則であり、私たちの世界の普遍的な原理です。
量子力学の原理をフルに活用して情報処理を行う量子コンピュータは、従来のコンピュータとは本質的に異なる特性を持ち、新たな情報処理の可能性を開きます。従来のコンピュータは、量子(quantum)コンピュータに対して古典(classical)コンピュータと呼ばれます。古典コンピュータがビットを用いて情報処理を行うのに対し、量子情報処理は量子ビット(quantum bit; qubit)を情報処理の基本単位として用います。これにより例えば量子計算は、整数の素因数分解や量子力学的現象の数値シミュレーションなど、ある種の計算問題を解く際に古典計算に対して飛躍的な速度向上をもたらすと予想されています。また量子通信は盗聴が原理的に困難で情報理論的に安全な暗号技術を可能にします。
このように量子コンピュータは情報処理基盤に革新をもたらすことが期待され、量子情報科学は分野として大きな注目を集めています。しかし、古典ビットと異なり、量子ビットはわずかなノイズの影響で情報が失われやすいという課題も抱えており、多数の量子ビットを備えたスケーラブルな量子デバイスを実現することが量子実験における大きな挑戦となっています。大規模な量子情報処理を行うには、量子エラー訂正を用いて量子ビットをノイズから保護しながら計算を行う誤り耐性量子計算の手法が必要です。そのため現在世界的に、誤り耐性量子計算を可能にする量子コンピュータの実現に向けた技術開発が進められています。また応用に向けては、量子情報処理の有用なアプリケーションを探索する研究が進展しています。
私たちの研究:量子情報理論
私たちは、量子情報科学の基盤となる理論—量子情報理論—やその応用を研究しています。量子コンピュータの応用先として、機械学習・固体物理・量子化学・暗号論といった様々な分野での計算が考えられます。私たちの研究では機械学習などの応用分野で、量子計算が得意とする種類の計算問題を有効活用する方法を開発しています。また有用な量子情報処理を実現するには、量子コンピュータのシステム設計も重要です。この際、ノイズに弱い量子的な情報を守るために、複雑な誤り耐性プロトコルに従いながら処理を進めることが必要になりますが、こうした手順を踏みながらも、量子的な情報を保持するメモリ空間の省スペース化と処理時間の高速化をバランスよく両立したいという課題があります。私たちの研究ではこの課題に挑戦しています。一方で、情報処理の解析に使われる理論の手法は、量子力学の物理的性質の解析にも有用です。このような観点から私たちの研究では、量子情報処理の最適性能や原理限界の解析を通じて、量子情報処理に関わる量子力学の性質も研究しています。
このように私たちの研究では、量子コンピュータの活用方法・実現方法からその最適性能・原理限界まで明確化することで、量子技術の進歩と将来の情報化社会の発展をつなぐ総合的な理論基盤を構築しています。
研究テーマ:量子計算と量子機械学習
整数の基本的な性質として、どんな整数も素数の積に素因数分解できます。例えば、6は 2 × 3、15は 3 × 5 に分解されます。しかし、これがより大きな数、例えば2048桁の整数だった場合はどうでしょうか。このような巨大な数の素因数分解を求めることは、現在の計算技術では非常に困難です。従来のコンピュータ上で動く既存の古典アルゴリズムの中で最も優れたものを用いたとしても、こうした素因数分解問題を解くには準指数時間がかかり、現実的な時間内に解くことはできません。一方、量子計算では、ショアのアルゴリズム(Shor’s algorithm)と呼ばれる量子アルゴリズムを用いることで、この問題を多項式回の計算ステップ数で解くことが可能になり、大きな整数の素因数分解を飛躍的に高速化できます。
この例は、量子計算が古典的な計算技術ではほぼ不可能と思われる問題を解決する可能性を持つことを示しています。しかし、考えてみてください—これまでの人生で、巨大な整数の素因数分解が必要になったことはありますか? 私たちの研究では、現実世界への影響が限られた問題にとどまらず、社会や日常生活に対して意味の大きい進歩をもたらすアプリケーションを見出すことを目指しています。
現在、量子計算は、機械学習・固体物理・量子化学・暗号論など、多くの分野で計算タスクを加速するためにアクティブに研究されています。中でも、量子機械学習は、量子計算が古典的な手法を上回る可能性を機械学習に活かす分野として、大きな注目を集めています。しかし近年の研究の多くは、量子計算で単に古典の機械学習手法(例えばニューラルネットワーク)を真似しようとするヒューリスティックなアプローチにとどまっていました。実際には、量子計算が古典計算に対して優位性を持つのは特定の種類の問題なので、慎重にアルゴリズム設計されて理論的に正当化されない限り、すべての計算を加速できるわけではありません。
機械学習において量子計算の恩恵を得るためには、量子計算がどのような場面で有利になり、その利点をどのように機械学習へ活用できるかを理解することが不可欠です。よくある誤解として、「量子計算は並列計算のようにすべての解を一度に試せる」と考えられがちですが、これは誤りです。実際には、量子アルゴリズムは乱択アルゴリズムの一種であると考えられます。古典的な乱択アルゴリズムでは、ある確率分布に従ってランダムな値を生成し、それを計算に利用します。一方、量子アルゴリズムでは、量子ビットの状態を測定することでランダムな値を生成します。量子状態には重ね合わせや量子もつれといった特有の性質があり、これにより、古典的アルゴリズムでは扱うことが難しい確率分布からもサンプリングすることが可能になります。しかし、こうした量子的性質を効果的に活用するためには、計算問題の背後に特別な数学的構造が存在することが重要です。例えば、整数の素因数分解においては、ショアのアルゴリズムが「冪乗剰余(modular exponensiation)の周期構造」を利用していることが鍵となります。このように、機械学習において量子計算の強みを引き出すためには、学習タスクの中に有用な数学的構造を見つけ出し、それを活かして量子アルゴリズムの優位性を引き出すことが重要です。
機械学習を高速化する量子アルゴリズムの開発
私たちの研究では、量子計算の優位性を機械学習で活用するための確固たる理論基盤を確立するために、様々な学習タスクに対して量子機械学習アルゴリズムの開発と理論解析を行っています。例えば、量子フーリエ変換(quantum Fourier transform)や量子特異値変換(quantum singular value transformation)といった量子アルゴリズムの手法を用い、与えられたデータから重要な特徴量を効率的に探索・抽出する量子機械学習アルゴリズムを設計しています。こうして量子アルゴリズムによって抽出された特徴量は、古典計算で残りの学習プロセスを行う際に性能向上を実現します。このように、古典的な学習手法と量子計算の強みを適切に組み合わせた新しい量子機械学習の枠組みの構築を目指しています。
計算量理論に基づく量子計算の優位性の理論
機械学習に関わる計算タスクの中で、量子アルゴリズムによって高速に解けるものを探求すると同時に、古典アルゴリズムでは本質的に解くことが困難な問題を特定し、量子計算の優位性を厳密に明確化することも重要です。単に古典アルゴリズムで既に高速に解ける問題を量子アルゴリズムで解いても意味がありません。むしろ、どのような古典アルゴリズムを用いても解くことが困難であることが証明できる問題こそ、量子計算で解くことに大きな意義があります。
こうした困難性を無条件に証明することは一般には難しい問題ですが、私たちの研究では計算量理論の手法を活用して、標準的な仮定のもとで、量子計算の潜在的な能力と古典計算の本質的な限界の両方を探究しています。これらの問題に取り組むことで、量子計算が機械学習にもたらす真の優位性を裏付ける総合的な理論基盤の確立を目指しています。
量子アルゴリズムの性能を向上する古典数値計算手法の開発
量子アルゴリズム自体の手法開発だけでなく、古典コンピュータによる数値計算手法の開発も、量子アルゴリズムの性能向上において重要な役割を果たします。大規模な行列計算や数理最適化は、量子情報処理の性能評価のための数値シミュレーションや最適性能の追求に不可欠です。例えば、半正定値計画問題(semidefinite programming; SDP)と呼ばれる凸最適化問題の一種には、量子力学の数学的構造が自然に現れ、量子情報処理の研究において強力なツールとなります。私たちの研究では、こうした数値計算手法の開発も行い、量子情報処理の性能の向上と適用範囲の拡大を進めています。
研究テーマ:誤り耐性量子計算
量子計算は通常、量子回路を用いて表現されます。しかしこの元の量子回路をそのまま量子デバイス上で実行しても、ノイズの影響のせいで正しい計算結果は得られません。ノイズがあると、ある物理エラーレートでランダムなエラーが起こり、出力される計算結果が変わってしまいます。量子エラー訂正を用いずに正確な計算結果を得るには、量子ビットの操作ごとの物理エラーレートを極めて低く抑える必要が生じます。例えば、1000量子ビットのデバイスがある場合、各物理量子ビットあたりのエラーレートは1/1000 = 0.1% よりも十分に小さくなければなりません。そうしないと、単に1000量子ビットを初期化するだけで、0.1% × 1000 = 100% のエラーが累積してしまい、正しい計算は不可能です。このため、例えばノイズのある中規模量子デバイス(noisy intermediate-scale quantum devices; NISQ devices)用のアルゴリズムや量子アニーリングといった量子エラー訂正なしで量子デバイスを利用しようとする試みは、最先端の古典アルゴリズムの性能を超えることができていません。ノイズの影響のため、NISQアルゴリズムや量子アニーリングが大きな高速化を達成することは期待できず、現実世界の大規模な計算において実用的に役立ち得るとは現状考えられません。
こうしたノイズの問題に対して唯一知られている解決策は、誤り耐性量子計算(fault-tolerant quantum computation; FTQC)です。誤り耐性量子計算では、表面符号(surface code)やSteaneの7量子ビット符号(Steane code)といった量子エラー訂正符号を使用します。こうした符号は、元の回路の各量子ビットを論理量子ビットとして、複数の物理量子ビットを使って符号化します。この冗長性により、一部の物理量子ビットにエラーが生じたとしても、残りの量子ビットから符号化された情報を復元することが可能になります。元の回路の計算結果を正確に再現するためには、こうした符号上でノイズから情報を守りながら計算を実行する誤り耐性プロトコルに従う必要があります。誤り耐性プロトコルにより、ノイズの多い物理量子ビット上で、量子エラー訂正を継続的に行いながら元の回路の計算を符号化した形で実行する誤り耐性回路が得られます。このように回路を符号化してコンパイルすることで、もし物理エラーレートが一定の閾値(通常0.1–1%程度)を下回っていれば、論理量子ビットの操作のエラーレートを任意の低さまで下げることが可能になります。このように論理エラーレートを十分に下げることで、正しい計算結果の出力を得ることができます。誤り耐性量子計算の技術は、大規模な量子情報処理を実現するために究極的に不可欠であり、量子情報科学の基盤として重要な役割を果たします。
実用的な誤り耐性量子計算を実現するために、中性原子、イオントラップ、超伝導量子ビット、光学系など、さまざまな物理系で現在活発に技術開発がなされています。誤り耐性量子計算を実現するための要件は、すべての物理量子ビットの操作の物理エラーレートが、誤り耐性プロトコルの閾値を下回ることです。過去の多くの研究では、NISQの枠組みのもとで、誤り耐性プロトコルの要件を満たさないノイズの多い量子デバイスの応用を模索していました。しかし、このような状況では、物理量子ビットを増やしても新たなエラーの発生源が増えるだけであり、古典計算に対して高速で意味のある量子計算を実現することはできません。一方で、量子実験技術の進展により、現在では誤り耐性量子計算を実現できる性能の要件を満たしたデバイスが次第に登場しつつあります。この新たな状況では、物理量子ビットを増やすことで指数関数的に論理エラーレートを下げることが可能になります。私たちは今まさに、FTQC時代への急激な相転移を目の当たりにしています。この転移を最大限に活用し、有用な量子計算の発展を促進するためには、誤り耐性量子計算の理論の理解を深め、量子技術の発展と誤り耐性量子計算の実現の間をつなぐ包括的な理論基盤を構築することが重要です。
誤り耐性プロトコルの設計・量子エラー訂正の理論
私たちの研究では、量子エラー訂正と誤り耐性プロトコルの基盤となる理論を探究しています。誤り耐性量子計算の実現における大きな課題の一つは、空間的および時間的なオーバーヘッドの大きさです。量子回路において、量子ビットの数は幅(width)、時間ステップの数は深さ(depth)と呼ばれます。誤り耐性量子計算では、計算を実装するために量子エラー訂正符号を用いるため、必然的に幅と深さの両方が増大します。誤り耐性回路と元の回路の幅の比で空間オーバーヘッドを、深さの比で時間オーバーヘッドを定義します。論理エラーレートを下げるためには、論理量子ビットを複数の物理量子ビットに符号化し、符号化されたままで計算を実行する必要があります。このプロセスには、多くの場合、魔法状態蒸留(magic state distillation)と呼ばれる計算リソースを大量に消費するサブルーチンも含まれます。こうした結果、元の回路が大きくなるにつれて、誤り耐性量子計算の空間的・時間的オーバーヘッドも増加します。量子デバイスにおいて量子ビットは貴重なリソースであるため、空間オーバーヘッドの増大への対処は誤り耐性量子計算の実現に向けた重要な課題となります。同時に、量子計算の高速性を維持するためには、時間オーバーヘッドを最小限に抑えることも重要です。
私たちの研究では、誤り耐性量子計算の様々なプロトコル・サブルーチンのオーバーヘッドを大きく削減し、定数オーダーO(1)に抑える手法を開発しています。このアプローチにより、スケーラブルな量子計算の実現が可能となり、表面符号などを用いた従来の誤り耐性プロトコルを超えた低オーバーヘッド誤り耐性量子計算の新たなフロンティアを開拓しています。
量子コンピュータのアーキテクチャ・システム設計
誤り耐性量子計算の理論からは、誤り耐性量子回路を得ることができます。この回路は、量子デバイス上で実行される命令のシーケンスに変換でき、古典コンピュータにおけるアセンブリ言語に相当します。しかし、この理論的な基礎づけと実際の量子実験との間には、依然として大きなギャップがあります。量子実験の分野では量子ビットを精密に制御する技術が進歩していますが、これは古典コンピュータにおけるトランジスタやシーモス(CMOS)の技術に相当します。現代のコンピュータは、ノートパソコンから最先端のスーパーコンピュータに至るまで、単にアセンブリ言語をCMOS上で直接実行するだけでは成り立ち得ません。拡張性を考慮したコンピュータアーキテクチャの構築が不可欠です。これは、量子コンピュータにも当てはまります。
量子コンピュータを実現できる物理プラットフォームは、中性原子・イオントラップ・超伝導量子ビット・光学系など、様々なものが考えられます。また量子コンピュータの設計は、機械学習タスクやその他の科学的問題など、ターゲットとなる応用領域にも沿って行う必要があります。そのため、量子コンピュータの開発には、理論解析による基礎づけと高精度な数値計算でのシミュレーションの両方を統合した包括的な設計アプローチが求められます。こうした方法により、有限長と漸近的なスケールの間を補完し、様々な規模での実現可能性を明確化することが重要になります。こうしたギャップを埋めるために、私たちは量子実験およびコンピュータアーキテクチャの研究者とも協力し、スケーラブルな量子コンピュータを実現するための基本原理と手法を探求しています。
連続量光量子計算・連続量量子符号の理論
情報処理の研究は、究極的にはこうした処理を実装する物理系のモデル化と解析を伴います。量子力学において、多くの物理系は本質的に無限の自由度を持ち、無限次元のベクトル空間の一種である無限次元ヒルベルト空間を用いて数学的に表されます。例えば、光学系では連続量の光を利用でき、超伝導キャビティでは無限に存在するエネルギー準位を用いて活用して情報を処理できます。量子ビット自体は有限次元のベクトル空間で記述されますが、Gottesman-Kitaev-Preskill(GKP)符号などの連続量量子符号を用いることで、有限次元の量子ビットを無限次元の量子系に符号化することが可能です。そのため連続量量子計算に関する数学的理論や解析手法は様々な量子技術において不可欠ですが、量子ビットを対象とする理論と比較するとまだ発展途上の段階にあります。私たちの研究では、新たな手法や理論的枠組みを構築することで連続量量子情報処理の理解を深め、その理論基盤と応用の両面を発展させることを目指しています。
研究テーマ:量子情報
人類社会は、技術の進歩とともに発展してきました。そしてその進歩の背後では、強力な理論が大きな役割を果たしてきました。19世紀には蒸気機関の技術革新が産業革命を駆動し、それと並行して熱力学が発展しました。熱力学は、エネルギーの効率的な利用方法とその効率の原理的な限界を明らかにし、私たちがエネルギー資源を活用する指針を形作ってきました。
現在私たちは、量子デバイスを開発し、量子力学の法則のもとで物理系を精密に制御できる時代を迎えています。これにより、量子情報処理の新たな可能性が拓かれつつあります。こうした量子技術の真の可能性を理解するためには、量子力学のもとで何が可能であり、どのような制約があるのかを明らかにする厳密な理論基盤を確立することが不可欠です。
物理学の中心的な目的の1つは、この世界を支配する物理法則をどのように効率的に活用できるのか、そしてその原理的な限界がどこにあるのか、といった帰結を解明することにあります。量子情報理論は、まさにこの問いに答えることを目指しています。量子時代において、私たちはどのような新たな可能性を切り拓くことができるのか、そしてそれをいかに活用すべきなのか—私たちの研究ではこの根本的な問いに理論的な観点から迫ります。
量子情報処理は、量子力学の特有の性質を活用することで、古典情報処理では本質的に実現不可能な処理を可能にします。一方で、情報処理の性能を解析するために発展してきた理論的枠組みは、量子力学の本質的な性質を理解するうえでも重要です。重ね合わせ(superposition)、量子もつれ(entanglement)、マジック(magic; non-stabilizerness)、非ガウス性(non-Gaussianity)などの量子力学的性質は、量子情報処理における重要な計算リソースとなります。これらの特性を活用した量子情報処理の最適な性能や原理的な限界を探究することで、量子力学の基本原理を定量的に解析し、その理解をより深めることが可能になります。
量子もつれの理論・量子リソース理論
量子情報処理は、古典的手法では実現不可能なことを可能にします。この進歩は、重ね合わせや量子もつれといった量子特有の性質を効率的に活用することによって実現されます。こうした量子的性質は、量子情報処理の計算リソースとして機能します。量子リソース理論(quantum resource theory)は、量子リソースの操作や定量化を研究するための理論的枠組みで、量子リソースを体系的に探究し活用するために発展してきました。量子リソース理論は、自由操作(free operations)と呼ばれる制約を課した操作を考えることで定義されます。例えば、量子もつれの研究においては、局所操作と古典通信(local operations and classical communication; LOCC)が自由操作となり、遠く離れた複数の量子系の間で自然に実現可能な操作を表します。この制約のもとで自由に準備可能な量子状態を、自由状態(free states)と呼び、それ以外の量子状態はリソース状態として扱われます。量子リソース理論では、こうした制約のもとで情報処理タスクを解析することで、量子力学の基本原理に基づいて決まる量子情報処理の潜在的性能と原理的限界を明らかにします。
私たちの研究では、量子リソース理論の一般的な枠組みやその数学的性質を探究しています。熱力学におけるエネルギーの変換と同様に、量子リソースも相互に変換可能です。特に、量子リソース間の変換可能性(convertibility)は、量子仮説検定(quantum hypothesis testing)と呼ばれる量子情報処理の基本となるタスクの最適性能と深く関係しています。この理論の中心となるのが、「一般化量子Steinの補題(generalized quantum Stein’s lemma)」と呼ばれる補題です。この定理は、量子リソースの量を測る尺度となる関数を用いて、量子リソースと非リソース状態を区別する量子仮説検定の最適性能を特徴づける補題です。私たちの研究ではこの補題を証明し、仮説検定をツールとして量子リソースの変換可能性の解析を進めています。こうした理論的知見は、量子リソースの性質の理解を深めるだけでなく、量子技術の開発における定量的評価や物理法則の制約のもとで情報処理の最適化を行う際の理論基盤になります。
量子インターネット・量子通信・分散型量子情報処理の理論
量子もつれは、量子リソースの代表的な例であり、量子テレポーテーション(quantum teleportation)・スーパーデンスコーディング(superdense coding)・量子鍵配送(quantum key distribution; QKD)などのさまざまな通信タスクを可能にします。最先端のスーパーコンピュータが多数のプロセッサユニットを接続するネットワークによって構築されているように、量子通信ネットワークは、多数の量子デバイスを接続したスケーラブルなマルチプロセッサ型の量子コンピュータを実現するために不可欠です。このような計算パラダイムは、分散型量子情報処理(distributed quantum Information processing)と呼ばれます。私たちの研究では、多体量子もつれ(multipartite entanglement)や分散型量子情報処理の基礎理論を探究し、スケーラブルな量子ネットワークや量子アーキテクチャの開発を理論的に支える基盤の確立を目指しています。
量子デバイスのベンチマーク手法の開発
量子情報理論の手法は、量子デバイスをベンチマークして性能評価を行う際にも重要な役割を果たします。古典コンピュータには、性能を評価するための確立されたベンチマークツールが存在しますが、量子コンピュータの技術は現在も開発途上であるため、同じような成熟したフレームワークは確立されていません。私たちの研究では、量子デバイスの性能を厳密に評価するための理論的な裏付けのあるベンチマーク手法を開発し、スケーラブルな量子コンピュータの実現のために効率的かつ体系的に情報を得られる手法を提示することを目指しています。
量子力学の基礎
量子力学の基本概念であるベルの不等式(Bell’s inequality)などは、特に量子計算や量子暗号の分野において、量子情報処理が古典情報処理に対して優位性を持つことを解析する上で重要な役割を果たします。同時に、こうした量子優位性を解析するために発展した手法や理論的枠組みは、量子力学のより深い基礎を探求するための強力なツールとなります。私たちの研究では、これらのテーマを幅広く扱い、量子情報処理の可能性を探求するとともに、量子力学の基礎の理解にも貢献しています。
こうした研究にご興味がある方へ
こうした研究にご興味がありましたらぜひお気軽に Join Us からご連絡ください。
参考文献
分野にさらにご興味がありましたら以下の教科書をおすすめします。
M. A. Nielsen and I. L. Chuang, Quantum Computation and Quantum Information: 10th Anniversary Edition. Cambridge: Cambridge University Press, 2010.
R. de Wolf, Quantum Computing: Lecture Notes. arXiv:1907.09415.
D. Gottesman, An Introduction to Quantum Error Correction and Fault-Tolerant Quantum Computation. arXiv:0904.2557.
M. M. Wilde, Quantum Information Theory, 2nd ed. Cambridge: Cambridge University Press, 2017. arXiv:1106.1445.
J. Watrous, The Theory of Quantum Information. Cambridge: Cambridge University Press, 2018.