시대정신
구글의 양자우월성 도달에 대해.TXT 본문
1. 정보와 물리학
흔히들 정보라고 하면 수학적이고 추상적이기만 한 대상이라고 생각합니다. 하지만 정보를 나타낼때 문자나 숫자, 아니면 하다못해 나뭇가지로라도 나타내야 한다는 것을 생각해보면 정보 역시 물리적인 개념이라는 것을 알 수 있습니다. 조금의 직관을 보태자면, 무질서한 자연에서 잘 구분되는 질서를 찾아 이를 우리가 전달하려는 의미에 대응시켜 둔 것이 바로 정보라고 할 수 있습니다. 숫자 1을 나뭇가지 1개로 나타내자고 약속하는 것과 같은 일이지요.
현대 컴퓨터는 MOSFET이라는 소자를 사용하여 정보를 저장하고 가공합니다. MOSFET이라는 소자는 작게 잘 만들수록 단위 면적당 사용할 수 있는 정보의 양이 좋아질 뿐만 아니라, 연산 속도와 전력 소모 측면에서 좋은 효과를 얻을 수 있습니다. 2000년대 초까지는 무어의 법칙에 의해 MOSFET의 집적도가 기하급수적으로 개선되었고, 지금도 그 기세는 많이 꺾였지만 꾸준히 발전하여 스마트폰, 슈퍼컴퓨터, 데이터센터 등 매우 크고 복잡한 연산이 필요한 서비스가 가능해졌습니다.
MOSFET을 이용한 디지털 회로가 지니는 매우 강한 이점은 오류 정정 능력에 있습니다. MOSFET뿐만 아니라, 어떤 소자를 사용하든 우리가 결국 측정을 통해 얻는 값은 엄청 많은 숫자의 전자가 주는 기댓값입니다. 전류를 생각해보면, 단위시간당 지금 이 단면을 지나가는 전자의 수를 방향을 고려해서 카운팅한 값인데, 전자가 아무리 적다고 한들 우리가 셀 수 없을 정도로 많은 전자가 지나가면서 정보를 줍니다. 이때 아주 조금의 노이즈, 그러니까 전자 100개의 이동 방향이 바뀌는 노이즈가 발생했다고 하더라도 대세에 큰 영향을 미치지 못하게 됩니다. 더욱이 회로를 잘 설계하면 이 노이즈를 계속 감쇄시킬 수도 있습니다. 또, level restoration이라는 개념도 있는데 0과 1이 아닌 애매한 0.7의 값이 들어와도 결과는 0이나 1로 주게 되어 정보의 확실한 구분 및 오류의 수정이 용이하게 됩니다.
이러한 fault-tolerance는 클로드 섀넌의 고전 정보이론과 폰노이만의 fault-tolerance에 대한 논의를 거쳐 확실히 정립되었습니다. 고전정보이론 시스템에서는 기본적으로 'redundancy'라는 개념에 의존합니다. 방금 MOSFET의 예시에서는 매우 비슷한 성질의 전자가 수없이 많이 있다는 점이 redundancy의 예시이며, 흔히 접할 수 있는 예로는 외장하드에 데이터를 백업해둔 뒤 기존 파일이 망가지면 외장하드에서 파일을 다시 불러오는 것이 있습니다. 모두 '임의의 정보는 자기 복제가 가능하다'라는 개념에서 출발하지요. 따라서 '자기 복제 가능성'은 오류에 대응하는 능력과 밀접한 연관이 있습니다.
그런데, 이 '자기 복제'는 양자역학에 따르면 있을 수 없는 일입니다! 닫힌 계의 양자역학은 양자 상태가 unitary map에 의해 시간에 따라 변한다고 이야기합니다. 그런데 단순히 unitary map만을 가정해도 '임의의 양자 상태가 주어졌을 때, 복제할 방법이 없다'라는 유명한 no-cloning theorem을 얻을 수 있습니다. 앞선 고전정보이론은 입자의 상태가 매우 많고, 서로 매우 무작위적인 상호작용을 하는 상태에서, 정보를 저장하는 대상이 입자의 상태가 아닌 기댓값 그 자체이기 때문에 통계역학적으로 두 상태를 임의적으로 가깝게 할 수 있다는 점을 전제로 하고 있습니다. (Binomial gas의 distribution이 얼마나 좁은지 생각해보시면 될 것 같습니다) .
따라서, 고전 정보이론이 고전역학에 기반한 체계를 바탕으로 정보를 다루기 때문에 실제 세상의 모델인 양자역학의 결과와 맞지 않을 수 있다면, 양자역학에서 새로 출발하여 정보이론을 다시 서술해야 합니다. 예를 들어 통계역학적으로 서술할 수 없는 전자 10개짜리 시스템 같은 경우에 정보를 어떻게 다룰지에 대해 생각해본다면 답이 없다는 것이지요. 이렇게 양자 정보이론은 고전 정보이론과 fundamental한 차이를 보이면서 등장하였습니다. (제가 마치 컴퓨터가 다 발전되고 나서야 양자 정보이론이 생겨난 것처럼 서술했지만 그냥 설명의 편의상 이렇게 쓴 것일 뿐이고 양자 정보이론도 꽤나 오래된 이론입니다)
2. 양자컴퓨팅
앞서 봤듯이, 양자 정보이론은 양자역학에 기반한 정보이론입니다. 양자역학은 기본적으로 상태를 Hilbert space라는 vector space에 존재하는 vector로 정의합니다. 이를 statevector라고 하고, 그 사이에 존재할 수 있는 mapping은 주어진 해밀토니안에 해당하는 unitary map뿐입니다. 그런데 양자 상태를 하나의 정보라고 본다면, 고전 정보이론에서는 사용할 수 없었던 표현이 가능하게 됩니다. 고전 정보이론에서는 하나의 물리적 binary entity가 0 또는 1만의 값을 가질 수 있었지만, 양자 정보이론에서는 |0>과 |1>의 모든 linear combination (vector의 크기가 1이라는 것만이 제약) 이 상태일 수 있습니다. (|0>+|1>)/sqrt(2)라는 상태가 0.5에 해당한다고 할 순 없지만, 여튼 연속적인 상태 표현이 가능하다는 것이죠!
또, 이러한 중첩 효과 덕분에 entanglement라는 매우 특이한 현상을 찾을 수 있습니다. 이제부터 양자 정보를 담는 물체를 qubit이라고 부릅시다. (ex: 전자 1개) 2개의 qubit이 있는 경우, 양자 상태를 tensor product라는 표기로 나타내어야 합니다. 이름은 어렵지만 그냥 |00>, |01> 이런식으로 병렬 표기하는 거라고 생각하시면 쉽습니다. 그렇다면 |00>+|11> 같은 표현도 가능할까요? (이제부터 normalization은 쓰지 않겠습니다) 한 개의 qubit이 0 상태에 있다는 것이 관측되면, 나머지 1개의 qubit이 0상태에 있다는 것을 자동으로 알 수 있고, 1인 경우도 마찬가지입니다. 이렇게 두 상태가 '얽힌' 경우도 당연히 존재하며, 이를 이용하면 tensor product로 나타낸 Hilbert space의 모든 degree of freedom을 사용할 수 있게 됩니다. 또, 이 entanglement 자체가 정보를 포함하고 있는데요, 사실 |00> + |11>이라는 상태는 |0>이나 |1> 자체가 정보가 아니라, '1번 qubit과 2번 qubit이 얽혀 있음' 자체가 정보라고 할 수 있습니다. 이에 대해서는 EPR 패러독스에 대해서 더 찾아보시면 잘 이해하실 수 있을 것 같습니다.
Tensor product가 단순히 병렬로 표기하는 거라고 설명했는데요, 그렇다면 n개의 qubit의 상태는 |000...0> 부터 |111...1>까지의 모든 string의 linear combination으로 표기될 것입니다. 그러면 n개짜리 qubit을 나타내기 위한 복소수 (Hilbert space는 복소수 체를 가집니다)의 개수는 2^n으로 계산됩니다! n개의 bit를 나타내기 위해 n개의 숫자가 필요하다면, n개의 qubit를 나타내기 위해 2^n개의 숫자가 필요한 것이지요.
마지막으로 짚고 넘어갈 부분은 상태의 가역성입니다. Unitary map은 가역적이기 때문에 당연히 가역적입니다. 그런데 고전 정보이론에서는 가역성을 굳이 전제하지 않습니다. 가장 간단한 디지털 논리인 NAND gate만 해도 input 2개에 output이 1개여서 output만으로 input을 추론할 수 가 없습니다. 정보가 하나 소실되었다고 표현할 수도 있지요. 그러나, 만약 input 중 하나를 또 output으로 내주어 2개의 output을 내는 Reversible NAND를 만들면, 가역적인 gate를 만들 수 있습니다. 쉽게 유추하시겠지만, 가역적인 회로는 비가역적인 회로보다 훨씬 일반적이지만, 오류를 정정하기가 무척 어려워집니다.
종합하자면, 양자 정보이론은 1) 중첩, 2) 얽힘, 3) 가역성(unitary), 4) 내재된 큰 computational space 등으로 인해 고전 정보이론을 '포함'합니다. 대수적으로 제한을 두면 고전 정보이론의 결과를 모두 얻을 수 있는 것이지요. 따라서 complexity 측면에서 '적어도' 고전 정보이론의 결과 이상은 얻을 수 있다고 생각할 수 있고, 그에 대한 증명도 존재합니다. 그렇다면 이제 던질 질문은, '어떤 문제들에 대해서는 complexity 측면에서 고전 정보이론의 결과보다 훨씬 효율적인 결과를 보일 수 있을까?' 입니다.
결론적으로 있습니다. 1994년 현재 MIT 수학과 교수인 Peter Shor 교수는 양자 정보이론을 바탕으로 polynomial time / memory 안에 소인수분해를 하는 알고리즘을 만들었습니다. 기존 컴퓨팅 시스템에게 소인수분해는 exponential 시간이 소요되는, 아직까지도 표준적인 암호로 사용될 정도로 어려운 문제입니다. 이렇게 응용 가능성과 성능을 확실히 보여준 논문이 하나 나오니 그때부터 본격적으로 양자 알고리즘 연구가 활발히 진행되었고, Quantum Complexity Theory라는 좋은 분야가 정립되기도 했습니다. (아직 BQP, P, NP의 관계는 밝혀지지 않았습니다)
이렇게 양자 정보이론이 고전 정보이론에 대해 complexity 측면에서 월등한 우위를 지니는 경우를 Caltech의 John Preskill 교수는 Quantum Supremacy라고 명명하게 됩니다. (여담으로, supremacy라는 말은 백인 우월주의를 떠오르게 하여 정치적으로 올바르지 못하다는 지적을 받아 advantage로 사용하자는 말이 많습니다. Superducting qubit 연구하는 사람들은 대개 White fridge를 통해 supremacy를 보여야 하니 이 얼마나 quantum racist들인지...) Quantum supremacy는 기본적으로 양자 정보이론의 넓은 대수적 구조에서 오게 되지요. 이 Supremacy를 보이는 응용처를 'Killer application'이라고 보통 이야기하고, 현재 밝혀진 Killer application으로는 소인수분해, 화학 시뮬레이션, 양자 시뮬레이션(말 그대로, 양자역학적 입자 사이의 상호작용과 dynamics를 시뮬레이션하는 겁니다 - 화학 시뮬레이션은 사실 여기 포함됩니다), 최적화문제, 검색 문제, TSP 등이 있습니다. 꽤나 많은 NP 문제들과 양자역학적 문제들을 포함하고 있기 때문에, 그 응용 가능성은 매우 높습니다. 예를 들어, 아직까지 암모니아 합성 과정에서 분자들이 어떤 time evolution을 거쳐 암모니아가 합성되는지 밝혀진 바가 없는데요, 이를 양자 시뮬레이션으로 밝혀 보다 효율적인 합성 경로를 발견하면 많은 화학 과정들을 최적화할 수 있게 됩니다. 현재 전세계 슈퍼컴퓨터 사용량의 상당부분을 화학 시뮬레이션이 사용한다는 점을 생각해본다면, 양자컴퓨터가 가져올 이점은 매우 크다고 할 수 있습니다.
3. 실험적 구현
이렇게 좋은 양자컴퓨터가 아직 만들어지지 않은 이유는 구현이 더럽게 어려워서입니다. 제가 앞서 전제했던 건 닫힌 계의 양자역학입니다. '닫힌 계'라는 것은 예를 들어 오로지 전자 3개만이 진공 속에서 유유히 떠다니는 것을 의미합니다. 이런 계가 존재한다면 외부로부터의 컨트롤 자체가 불가능하기 때문에 자기모순적인 상황이 발생합니다. 따라서 양자컴퓨터는 기본적으로 '열린 계'를 상정하고 개발되어야 하며, 이에 따라 알 수 없는 여러 랜덤한 요소들이 들어가게 됩니다. 이 랜덤한 요소들이 들어오게 되면 양자컴퓨터의 'coherence'가 붕괴되기 시작합니다. 'coherence'는 '양자역학이 고전역학과 확실히 구분되는 정도'라고 생각하시면 됩니다. |1>이 갑자기 |0>으로 떨어지는 relaxation이라든지, 외부와의 상호작용으로 stochastic해져 phase 특성이 사라지는 dephasing이 대표적인 예입니다. 이 coherence가 유지되는 시간을 최대한 길게 늘릴수록, 닫힌 계에서 예측한 양자 회로의 작동을 이상적으로 구현할 수 있게 됩니다.
또, 열린 계에서는 오류가 발생합니다. 방금 말씀드린 coherence가 깨지는 것을 decoherence라고 하는데요, 이 decoherence는 오류의 가장 큰 팩터입니다. 이밖에도 systematic error는 양자 회로를 만들기 위해 사용하는 레이저나 전자기파 펄스의 제어, 공학적 파라미터의 오차에 기인하는 오류입니다. 이러한 모든 오류들은 양자역학적인 확률이 아닌, 정말로 미지의 고전역학적인 확률 개념을 현상적으로 포함하여야 합니다. 이런 모든 요소를 고려하여 하드웨어를 잘 만들어야 하기 때문에 양자컴퓨터 제작은 공학적으로 매우 도전적인 일이 아닐 수 없습니다.
양자컴퓨터로 사용되는 양자 시스템에는 초전도 회로, 이온 트랩, Majorana Fermion, 광자 등이 있습니다. 아직까지 발견되지 않은 Majorana Fermion을 제외하면 모든 시스템이 2-qubit gate까지는 성공적으로 구현하였고 활발히 연구되고 있습니다. 각각 장점과 단점이 있지만 그중에서도 massive한 컴퓨팅 시스템으로 가장 각광받는 것은 superconducting qubit인데요, 현재 수준으로 coherence time은 최대 수십~수백 us 정도로 짧지만 gate 하나를 작동시키는 데에 10 ns 정도만이 필요하기 때문에 수백 번의 연산이 가능한 정도입니다. Single-qubit gate (qubit 한 개를 조작하는 게이트)의 정확도는 이제 거의 three-9에 가까워졌고, (99.9x%) two-qubit gate (qubit 2개의 entanglement를 이용한 게이트) 역시 two-9의 정확도를 보입니다. 물론 수백 개의 게이트를 적용하면 금세 정확도가 0에 가까워지지만, 그래도 통계적으로 많이 반복하면 구분될 정도의 결과는 보입니다! 수백만 번 적용하지 않고도, 애초에 NP문제들이 답을 체크하는 데에 걸리는 시간이 polynomial이기 때문에 답 하나만 얻어걸려라! 하는 문제에는 큰 도움이 될 수 있을 거라 기대하고 있습니다.
Superconducting qubit의 강점은 언급한 빠른 연산 속도뿐만 아니라, 기존 반도체/금속 공정을 사용할 수 있다는 점, 기존 전자회로와 합치는 것이 용이하다는 점, 알루미늄과 실리콘이라는 간단한 재료로 만들 수 있다는 점, 이웃한 qubit간 coupling이 쉽다는 점, helium dilution refrigerator가 꾸준히 개선되어 수십 mK까지는 비교적 쉽게 낮출 수 있다는 점 등이 있습니다. 특히 그중에서도 transmon이라는 타입의 qubit은 외부 노이즈 (charge noise)에 강하고 측정 효율이 좋아서 많은 실험실에서 채택되었는데요, 이번에 구글이 만든 Sycamore라는 프로세서에도 transmon 기반의 qubit이 탑재되어 있습니다.
4. 구글이 한 것
구글은 이번에 superconducting qubit으로 53 qubit의 (54 qubit이지만 하나는 망가졌다고 합니다) Sycamore라는 프로세서를 제작하였습니다. 실제로는 142개이지만, 그중 88개는 tunable coupler로 사용되었습니다. Tunable coupler는 두 qubit 사이의 coupling을 켜고 꺼주는 장치인데요, 2-qubit gate를 사용하고 싶을 때만 coupling을 켜주고 싶어서 넣는 것입니다. 그렇지 않으면 error의 원인이 되기 때문이지요.
구글은 이 프로세서로 'Quantum Supremacy'를 보이고자 했습니다. 이를 위해서는 문제를 잘 정의해야 했죠. 구글은 매우 얍삽한 문제를 골랐습니다. 바로 'Quantum Random Number Generator'의 결과를 sampling하여 true random number generator인지 pseudo random number generator인지 평가하는 문제입니다. 문제의 정의 자체가 양자 시스템을 시뮬레이션하는 것이라 양자컴퓨터에 유리할 뿐만 아니라, 답을 찾는 문제가 아닌 '평가'의 문제였기 때문에 특정 메트릭 하나만을 잘 평가할 수 있으면 되는 문제였습니다. 솔직히 IBM이 약오를 만도 한 문제였죠.
주어진 난수 생성기가 얼마나 랜덤한지 평가하는 메트릭은 cross-entropy benchmarking fidelity로 주어집니다. F = 2^n
- 1로 정의되는데요, 간단히 말해서 우리가 샘플링한 샘플들의 확률이 모두 1/2^n, 그러니까 uniform distribution에 가까울수록 0에 가가운 결과를 얻게 되는 겁니다. 만약 난수 생성기가 완벽하다면 F는 0의 값을 가질 것이고, 구글이 가정한 exponential distribution의 난수 생성기 모델에서는 F값이 1에 가까울수록 난수 생성기의 결과 분포를 잘 파악한 것이 됩니다. 다르게 설명하자면, 주어진 난수 생성기의 분포를 간단한 메트릭으로 검증하는 문제에 해당합니다.
구글은 한 번의 output을 뽑기 위해 430개의 2-qubit gate와 1,115개의 single-qubit gate를 적용하였습니다. 각각의 오류는 (하나만일 때 ~ 동시에 여러 군데서 할 때) 0.36 ~ 0.62 %, 0.15 ~ 0.16%였으며, 측정 오류는 3.1 ~ 3.8% 였습니다. 이륿 바탕으로 F값을 추정하면 0.2% 가량입니다. 결국 문제는 classical computer가 0.2%보다 높은 fidelity를 얻는 데에 걸리는 시간보다 훨씬 빠르게 fidelity를 평가하는 것이었습니다.
0.2%의 정확도라면, 이를 통계적으로 유의미하게 얻기 위한 필요한 측정의 수는 3000만 번 정도이며, 10 us의 계산 시간을 가정할 때 대략 300초 정도 안에 계산이 가능하다는 결론이 나옵니다. 구글은 실제로 오로지 sampling만을 통하여 200초 안에 F를 0.2%로 평가할 수 있음을 증명했습니다.
그렇다면 classical computer가 이 문제를 푸는 데에는 얼마나 오랜 시간이 걸릴까요? 일단 기본적으로 양자 난수 생성기에 관한 문제이니 양자역학 시뮬레이터를 만들어야 합니다. 이 경우 양자 상태 하나를 저장하는 데에, 53 qubit이니까 2^53개의 복소수가 필요합니다. 2^ 50 Byte가 1 Peta Byte임을 고려해보면 효율적인 메모리 절약 방식이 없다면 저장만으로도 어렵습니다. 이런 경우에는 Schrodinger-Feynman simulatior 같이 양자 상태를 분리하여 시뮬레이션을 하거나, Tensor network 같은 메모리 절약 방식을 사용하여야 합니다. 그럼에도 불구하고 complexity 자체는 exponential하기 때문에, 근본적으로 메모리 측면에서의 한계를 time에 조금 덜어주었을 뿐인 결과가 도출됩니다.
물론 모든 양자 회로가 시뮬레이션하기 어려운 것은 아닙니다. 이 시뮬레이션을 어렵게 하는 것은 entanglement 때문인데요, 구글은 이 문제가 자신들의 슈퍼컴퓨터로 10,000년 정도가 걸릴 것이라는 예측을 제시하였고, 이것이 받아들여져 quantum supremacy를 증명하게 되었습니다. 특히나, qubit의 수나 circuit depth에 따라 exponential하게 증가한다는 부분도 있었기에 quantum supremacy를 부정할 여지는 크지 않아보입니다. 비교 대상이 10000년이라 그렇지 2.5일과 200초의 차이도 너무 큽니다.
사실 quantum supremacy를 증명한 것 자체보다도 이 문제를 푸는 과정 자체가 주는 의의가 훨씬 큽니다. 2-qubit gate의 안정적인 적용, 53-qubit급 프로세서를 로직 수준의 에러 없이 동작할 수 있음, nearest-neighbor coupling을 모두 구현하여 universality를 확보함, frequency tuning 및 tunable coupler를 이용하여 in-situ calibration을 가능하게 함, 최초로 문제를 처음부터 끝까지 풂, FPGA를 이용한 readout의 효율적인 처리 등 실험적으로 매우 다양한 디테일이 있었습니다. Transmon이 개발된 후 대략 10년 동안의 모든 연구를 집약한 결과로, 양자컴퓨터 개발이 느려보이는 것이 기술의 한계 때문이 아닌 투자와 관심의 한계였다는 것을 정확히 보여주는 사례가 된 것입니다.
5. IBM의 비판?
구글의 논문은 이미 8월에 나사 웹페이지를 통해 유출되었습니다. 이게 의도된 것인지는 모르겠지만, 구글의 가장 강력한 라이벌인 IBM은 이때부터 사실이 아닐 것이라며 회의적인 블로그 포스팅 및 트위터(...)를 날리기 시작했습니다. 그리고 네이처에 논문에 게재되기 이틀 전, 공식 홈페이지에 블로그포스트를 올리면서 자신들의 슈퍼컴퓨터로 2.5일이면 계산 가능하다! 라며 반격에 나섰죠.
하지만 그들의 주장에는 문제가 있는 듯합니다. 2.5일이라는 계산의 전제는 본인들의 슈퍼컴퓨터가 53 qubit 상태를 분리하지 않고 저장할 수 있을 정도로 크다는 것이었는데, 그렇다면 결국 'exponential memory가 주어진다면 time은 linear하다!' 같은 주장을 하는 꼴입니다. 이들의 주장을 그대로 70 qubit짜리 프로세서와 비교하는 것에 대응시키자면, '뉴욕 크기의 슈퍼컴퓨터가 있다면 일주일 안에 문제를 풀 수 있다!' 같은 것이 되고 맙니다.
IBM이 의도적으로 논란을 만들고자 이런식의 주장을 펼친 것인지는 몰라도, IBM은 그간 대외적으로 양자컴퓨터 개발에 대해 매우 크게 홍보하며 자부심과 선점 효과를 톡톡히 누리고자 했기에 이번 사태에 매우 민감할 수밖에 없었을 겁니다. 마침 사안이 큰 논란으로 번질 것을 우려한 것인지, Nature는 정기 발행 시기도 아닌데 구글의 논문을 게재하였습니다. 결국 학술적으로는 구글의 주장이 맞다는 것이 중론인 것이지요. 여전히 학술지와 유투브 설명을 제외하고는 공개적인 표현이 없는 구글의 시크한 승리가 점쳐지는 분위기입니다.
6. 앞으로의 Milestone과 전망
구글이 아무리 이런 결과를 냈다고 하더라도 이는 첫 발걸음일 뿐입니다. 아직 고작 0.2%에 불과한 fidelity를 현실적인 값으로 끌어올리려면 Three-9 fidelity를 지니는 quantum gate를 만들어야 하고, 이를 바탕으로 quantum error-correcting code를 구현하여야 합니다. 양자컴퓨터는 에러를 정정할 수 없다고 했지만, 다른 추가적인 qubit에 decoherence를 몰아버리거나 특정 coding scheme을 활용하여 오류를 정정할 수 있습니다. 그 대표적인 방법으로 surface code라는 것이 있는데요, 위상수학적인 원리를 이용하여 'logical qubit'을 만들고 보호하는 방식입니다. 이번에 구글이 사용한 geometry도 이 surface code를 염두에 두고 제작한 것이지요.
Error correcing code를 사용하면 오류 확률을 임의로 낮게 만들 수 있음이 증명되어 있습니다. 하지만 이를 위해서는 logical qubit 하나를 encoding하기 위해 1000개 이상의 물리적 qubit이 필요하다는 예측이 중론입니다. 이러한 scability를 위해서는 초전도 회로의 defect와 loss에 관한 보다 심도 있는 연구가 필요하며, quasiparticle이나 kinetic inductance 등에 대한 연구가 필요합니다. 또한, qubit의 수가 많아지는 만큼 coupling의 거리가 멀어지고 높은 degree of freedom이 필요하기 때문에 long-range coupling에 대한 연구가 필요합니다. Frequency crowding, crosstalk 등의 공학적인 문제를 차치하고라도 매우 많은 연구 주제들이 남아 있죠.
John Preskill 교수는 현재를 NISQ (Noisy Intermediate Scale Quantum) era라고 지칭하며 100개 안팎의 qubit으로 무엇을 해야할지 고민해야 한다고 했습니다. 그런데 구글이 벌써 무언가 해버려서 앞으로 개발이 가속화 될 것이라는 긍정적인 기대를 할 수 있게 되었습니다. 다음 milestone은, google이 surface code를 언급한 것에서 알 수 있듯이 error correcting code를 실험적으로 보여주는 것일 겁니다. 양자컴퓨팅 분야에서도 Moore's law에 해당하는 법칙이 나올 것인지, 상당히 기대가 됩니다.
'IT' 카테고리의 다른 글
이제 카톡하면서 자기 어디있는지 거짓말 못하는 이유..내가 정리해 줄게™ (0) | 2019.11.06 |
---|---|
카톡에서 주고 받는 '카카오 메일' 내가 정리해 줄게™ (0) | 2019.11.05 |
외신이 "갤럭시 폴드 쓰면 수염 뽑혀 아프다" 결함 지적 (0) | 2019.09.19 |
‘랭킹 1위’ 유저 대놓고 속였다가 고소 당한 넷마블 망했네요 (0) | 2019.07.25 |
러시아 불화수소 공급 가능, 부들부들 일본 반응. 불화수소가 특허 침해 했는지 안했는지 알길 없죠? (0) | 2019.07.12 |