谷歌吹捧量子計算的里程碑到底是什麼


谷歌吹捧量子計算的里程碑到底是什麼


谷歌表示,它已經在量子計算研究方面取得了突破,稱一個實驗性的量子處理器可以在短短几分鐘內完成計算,這將花費傳統超級計算機數千年的時間。

研究人員寫道,這項發現發表在科學期刊《自然》上,表明“量子加速在現實世界的系統中是可以實現的,並且不受任何隱藏的物理定律的限制”。

量子計算是一種新興的技術,它在很大程度上加快了信息處理的速度。量子計算機距離實際應用還有很長的路要走,但有一天可能會徹底改變可能需要現有計算機多年的任務,包括尋找新藥以及優化城市和交通規劃。

該技術依賴於量子位或量子位,它們可以同時記錄零和一的數據值(現代計算的語言)。包括Google,Microsoft,IBM和Intel在內的大型科技公司都在狂熱地追求這項技術。

什麼是量子計算機?

量子計算機在某些計算任務在量子處理器上的執行速度可能比在經典處理器1上的執行速度快。一個根本的挑戰是構建一種能夠在指數級大的計算空間中運行量子算法的高保真處理器。在這裡,我們報道了使用具有可編程超導量子位的處理器的到53個量子位創建量子態,對應於維度2的計算狀態空間53(約10 16)。重複實驗的測量結果採樣了概率分佈,我們使用經典模擬對其進行了驗證。我們的Sycamore處理器大約需要200秒來採樣一百萬個量子電路實例一百萬次-我們的基準測試表明,最新型經典超級計算機的等效任務大約需要10,000年。這顯著增加的速度相比,所有已知的經典算法是一個實驗實現量子至上為這一特定的計算任務,預示一個備受期待的計算範例。

量子歷程

在1980年代初期,理查德·費曼(Richard Feynman)提出,量子計算機將成為解決物理和化學問題的有效工具,因為用經典計算機模擬大型量子系統的成本成倍增加1。實現費曼的願景提出了巨大的實驗和理論挑戰。首先,可以設計一個量子系統來在足夠大的計算(希爾伯特)空間中以足夠低的錯誤率執行計算嗎?其次,我們能否提出一個對於經典計算機來說很難解決但對於量子計算機來說容易解決的問題?通過在我們的超導量子位處理器上計算這樣的基準任務,我們解決了兩個問題。我們的實驗實現了量子至上性,這是全面量子計算之路的里程碑。

在達到這一里程碑的過程中,我們證明了量子加速在現實世界的系統中是可以實現的,並且不受任何隱藏的物理定律的限制。量子至上也預示著嘈雜的中級量子(NISQ)技術的時代15。我們演示的基準測試任務可立即應用於生成可認證的隨機數(S. Aaronson,準備中的手稿);這種新的計算能力的其它初始用途可包括優化,機器學習,材料科學和化學。然而,實現量子計算的全部承諾(使用肖爾的保理算法,例如)仍然需要技術飛躍來設計容錯邏輯量子位。

為了實現量子至上,我們取得了許多技術進步,也為糾錯鋪平了道路。我們開發了可以在二維qubit陣列上同時執行的快速,高保真門。我們使用功能強大的新工具:交叉熵基準測試11在組件和系統級別上對處理器進行了基準測試。最後,我們使用了組件級的保真度來準確地預測整個系統的性能,從而進一步證明了在擴展到大型系統時量子信息的行為符合預期。

合適的計算任務

為了證明量子至上,我們比較我們針對國家的最先進的經典計算機量子處理器中取樣的偽隨機量子電路的輸出的任務。隨機電路是用於基準測試的合適的選擇,因為它們不具有的結構,因此允許計算硬度的保證限於。我們設計電路,通過重複應用單量子位和兩量子位邏輯運算來糾纏一組量子位(量子位)。對量子電路的輸出進行採樣會生成一組位串,例如{0000101,1011100,…}。由於量子干擾,位串的概率分佈類似於激光散射中光干擾產生的斑點強度圖案,因此某些位串比其他位串更容易出現。傳統上,隨著量子位的數量(寬度)和門循環數量(深度)的增長,計算這種概率分佈的難度成倍增加。

我們驗證該量子處理器是否工作正常使用稱為交叉熵法基準,其比較多久各比特串與通過模擬計算出的經典計算機上相應的理想概率實驗觀察。對於給定的電路,我們收集所測量的位串{ X 我 },並計算線性交叉熵基準保真度(也參見 補充信息),這是我們所測量的位串的模擬概率的平均值:


谷歌吹捧量子計算的里程碑到底是什麼


其中n是量子位的數量,P(x i)是為理想量子電路計算的位串x i的概率,並且平均值在觀察到的位串上。憑直覺FX Ë 乙與我們採樣高概率位串的頻率相關。當量子電路中沒有錯誤時,概率分佈是指數分佈(請參見補充信息),並且從該分佈中採樣將產生FX Ë 乙= 1。在另一方面,從均勻分佈採樣會給⟨ P(X 我)⟩ 我 = 1/2 Ñ和產生FX Ë 乙= 0。的價值FX Ë 乙在0和1之間的值對應於電路運行時未發生錯誤的可能性。概率P(x i)必須通過經典地模擬量子電路並由此計算得出FX Ë 乙在量子至上的體制中是棘手的。但是,通過某些簡化的電路,我們可以獲得運行寬和深量子電路的完全運行處理器的定量保真度估計。

我們的目標是達到足夠高的水平 FX Ë 乙對於具有足夠寬度和深度的電路來說,傳統的計算成本非常高。這是一項艱鉅的任務,因為我們的邏輯門不完善,並且我們打算創建的量子態對錯誤敏感。在算法過程中的單個位或相位翻轉將完全打亂散斑圖樣,並導致逼真度接近於零11(另請參見 補充信息)。因此,為了主張量子優勢,我們需要一個量子處理器,該處理器以足夠低的錯誤率執行程序。

構建高保真處理器

我們設計了一個名為“ Sycamore”的量子處理器,它由54個transmon量子位的二維陣列組成,其中每個量子位可調諧地耦合到一個矩形格子中的四個最近的鄰居。該連接被選擇為使用表面代碼26與糾錯具有前向兼容性。該器件的一項關鍵系統工程進展是,不僅可以孤立地實現高保真單量子比特和兩個量子比特的運算,而且還可以在許多量子比特上同時進行門運算的同時進行現實的計算。我們在下面討論重點內容;另請參閱 補充信息。

在一個超導電路,傳導電子冷凝成宏觀量子狀態,使得電流和電壓表現量子機械2,30。我們的處理器使用transmon量子位6,可以將其視為5-7 GHz的非線性超導諧振器。量子位被編碼為諧振電路的兩個最低量子本徵態。每個transmon都有兩個控件:一個微波驅動器來激發qubit,以及一個磁通量控制器來調諧頻率。每個量子位連接到用於讀出量子位狀態5的線性諧振器。如示於圖1中,每個量子位被使用新的可調耦合器也連接到其相鄰的量子位31,32。我們的耦合器設計使我們能夠快速將qubit-qubit耦合從完全關斷調整到40 MHz。1個量子位無法正常運行,因此該設備使用53個量子位和86個耦合器。


谷歌吹捧量子計算的里程碑到底是什麼


谷歌吹捧量子計算的里程碑到底是什麼


a,處理器的佈局,顯示了一個54個量子位的矩形陣列(灰色),每個矩形都通過耦合器(藍色)連接到其四個最近的鄰居。概述了不可操作的量子位。b,美國梧桐芯片的照片。


該處理器使用鋁製造,以實現金屬化和約瑟夫森結,並使用銦製造兩個硅晶片之間的凸點。芯片被引線鍵合到超導電路板上,並在稀釋冰箱中冷卻至20 mK以下,以將環境熱能降低到大大低於量子位能。處理器通過濾波器和衰減器連接到室溫電子設備,後者可合成控制信號。所有量子位的狀態可以通過同時利用頻率複用的技術來讀取33,34。我們使用兩級低溫放大器來增強信號,該信號被數字化(在1 GHz時為8位)並在室溫下以數字方式多路分解。我們總共精心設計了277個數模轉換器(在1 GHz時為14位),以完全控制量子處理器。

我們通過驅動25ns的微波脈衝來執行單量子位門控,該微波脈衝會以qubit頻率諧振,同時關閉qubit-qubit耦合。脈衝被成形為最小化到較高的transmon狀態35的過渡。門性能由於兩電平系統的缺陷頻率強烈變化36,37,雜散微波模式,耦合到控制線和讀出諧振器中,量子位,磁通噪聲和脈衝畸變之間殘留的雜散耦合。因此,我們優化了單量子位操作頻率以減輕這些錯誤機制。

我們通過使用上述交叉熵基準測試協議(降低到單量子位級別(n = 1))對單量子位門性能進行基準測試,以測量在單量子位門限期間發生錯誤的可能性。在每個量子位上,我們應用隨機選擇的門的可變數量m並進行測量FX Ë 乙在許多序列上取平均值;隨著m的增加,誤差累積並平均FX Ë 乙衰變。我們用[1 − e 1 /(1 − 1 / D 2)] m對此衰減建模 ,其中e 1是Pauli誤差概率。在這種情況下,狀態(希爾伯特)空間維數D = 2 n等於2,它校正了帶有誤差部分與理想狀態重疊的去極化模型。這個過程類似於隨機的基準的較典型的技術27,38,39,但支持非克利福柵設置40並可以從相干控制誤差中分離出相干誤差。然後,我們重複所有實驗同時執行單量子位門的實驗(圖2),這表明錯誤概率僅小幅增加,表明我們的設備具有較低的微波串擾。


谷歌吹捧量子計算的里程碑到底是什麼


谷歌吹捧量子計算的里程碑到底是什麼


a,對孤立的量子位(虛線)和同時操作所有量子位(實線)時測得的泡利誤差(黑色,綠色,藍色)和讀出誤差(橙色)的積分直方圖(經驗累積分佈函數,ECDF)。每個分佈的中值出現在垂直軸上的0.50處。平均值(平均值)如下所示。b,熱圖,顯示了位於處理器佈局中的單量子比特和兩比特泡利誤差e 1(十字)和e 2(條)。顯示了同時運行的所有量子位的值。

我們通過使相鄰的量子位共振並打開20 MHz耦合12 ns來執行類iSWAP的兩個量子糾纏門,從而允許量子位交換激勵。在這段時間內,量子位還經歷了受控相位(CZ)交互作用,該交互作用來自於更高的Transmon級別。優化每對量子位的兩個量子位門限頻率軌跡,以減輕在優化單量子位工作頻率時所考慮的相同誤差機制。

為了表徵和量化兩個量子位門,我們運行了m個週期的兩個量子位電路,其中每個週期在兩個量子位的每一個上都包含一個隨機選擇的單量子位門,然後是固定的兩個量子位門。我們通過使用來學習二量子位ary的參數(例如iSWAP和CZ交互的數量)FX Ë 乙作為成本函數。經過優化後,我們從的衰減中提取出每個週期的誤差e 2 c。FX Ë 乙與m並通過減去兩個單量子位誤差e 1來隔離兩個量子位誤差e 2。我們發現平均e 2為0.36%。另外,我們在重複執行相同的過程的同時為整個陣列運行兩個量子比特的電路。在更新單位參數以解決諸如色散漂移和串擾等影響後,我們發現平均e 2為0.62%。

對於整個實驗,我們使用在同時操作期間為每對測量的兩個量子比特unit生成量子電路,而不是為所有對使用標準門。典型的兩個量子比特的門是一個完整的iSWAP,具有完整CZ的1/6。絕不使用單獨校準的門限制演示的通用性。例如,一個人可以由1個量子比特的門和任意給定對中的兩個唯一的2個量子比特的門組成可控NOT(CNOT)門。本地實施高保真“教科書門”,例如CZ或我š W¯¯ 甲P------√,正在進行中。

最後,我們使用標準色散測量41來對量子位讀數進行基準測試。在圖2a中示出了在0和1狀態上平均的測量誤差。我們還通過隨機準備每個處於0或1狀態的量子位,然後測量所有量子位以獲得正確結果的概率,來同時測量所有量子位時的誤差。我們發現,同時讀出僅導致每量子位測量誤差的適度增加。

找到各個門和讀出的錯誤率後,我們可以將量子電路的保真度建模為所有門和測量的無錯誤操作概率的乘積。我們最大的隨機量子電路具有53個量子比特,1,113個單量子比特門,430個兩個量子比特門,以及每個量子比特的測量值,我們預測它們的總保真度為0.2%。保真度應該可以通過幾百萬次測量來解決,因為FX Ë 乙 是 1 / Ns--√,其中N s是樣本數。我們的模型假設,糾纏越來越大的系統不會引入超出我們在單比特和兩比特級別上測量的誤差之外的其他誤差源。在下一節中,我們將瞭解該假設的成立情況。

至高無上制度下的逼真度估計

我們的偽隨機量子電路生成的門序列如圖3所示。該算法的一個週期包括應用從中隨機選擇的單量子位門{ X--√,Y--√,W--√}在所有量子位上,然後是成對的量子位上的兩個量子門。形成“至上電路”的門序列被設計為最小化創建高度糾纏態所需的電路深度,這是計算複雜性和經典硬度所必需的。


谷歌吹捧量子計算的里程碑到底是什麼

a,我們實驗中使用的示例量子電路實例。每個週期包括一個單比特和兩個量子比特門的層。單量子位門是從以下位置隨機選擇的{ X--√,Y--√,W--√},在哪裡 w ^= (X+ Y)/ 2–√門不會順序重複。根據平鋪模式選擇兩個qubit門的順序,將每個qubit順序耦合到其四個最鄰近的qubit。耦合器分為四個子集(ABCD),每個子集在與陰影顏色相對應的整個陣列中同時執行。在這裡,我們顯示了一個棘手的序列(重複ABCDCDAB);我們還使用了不同的耦合器子集以及可在經典計算機上模擬的可簡化序列(重複EFGHEFGH,未顯示)。b,單量子比特和二量子比特門的控制信號的波形。

雖然我們無法計算 FX Ë 乙在至高無上的體系中,我們可以使用三種變化來估計它,以降低電路的複雜性。在“補丁電路”中,我們刪除了兩個量子比特門的一部分(佔兩個量子比特門總數的一小部分),將電路劃分為兩個空間隔離的,互不影響的量子比特補丁。然後,我們將總保真度計算為補丁保真度的乘積,可以輕鬆計算出每個保真度。在“消除電路”中,我們僅沿切片去除了一部分初始的兩個量子比特門,從而允許了補丁之間的糾纏,這更緊密地模仿了整個實驗,同時仍然保持了仿真的可行性。最後,我們還可以運行完整的“驗證電路”,其門數與我們的至高無上的電路相同,但對兩個量子比特門的序列具有不同的模式, 補充信息)。這三種變化之間的比較使我們能夠在接近至上制度時追蹤系統的保真度。

我們首先檢查驗證電路的補丁版本和刪減版本是否與完整驗證電路產生相同的保真度,最高可達53 qubit,如圖4a所示。對於每個數據點,我們通常在十個電路實例中收集N s = 5×10 6個樣本,其中實例僅在每個週期的單量子位門選擇上有所不同。我們還顯示了預測FX Ë 乙通過將單量子比特門和兩個量子比特門的無誤概率與測量值相乘得出的值(另請參見 補充信息)。儘管計算複雜度和糾纏度存在巨大差異,但預測的,補丁的和消除的保真度均與相應完整電路的保真度顯示出良好的一致性。這使我們充滿信心,可以使用消隱電路來準確估計更為複雜的電路的保真度。


谷歌吹捧量子計算的里程碑到底是什麼


a,基準測試方法的驗證。FX Ë 乙根據測得的位串和經典模擬預測的相應概率,計算出補丁,消除和完整驗證電路的值。在此,以可簡化的平鋪和順序方式應用兩個量子位的門,以便可以在合理的時間內將整個電路模擬為n = 53,m = 14。每個數據點是十個不同量子電路實例的平均值,這些實例的單量子位門有所不同(對於n = 39、42和43,僅模擬了兩個實例)。對於每個n,每個實例的N s為0.5-250萬。黑線顯示預測的FX Ë 乙基於單量子比特和二量子比特的門和測量誤差。儘管它們在複雜性方面存在巨大差異,但所有四個曲線之間的緊密對應關係證明,可以使用消隱電路來估計至高無上的狀態下的逼真度。b,估計FX Ë 乙在量子至上制度中。在這裡,兩個量子比特的門以不可簡化的平鋪和順序應用,因此很難模擬。對於最大的消減數據(n = 53,m = 20,總N s = 3000萬),我們找到了一個平均值FX Ë 乙 > 0.1%,具有5個σ置信度,其中σ包括系統和統計上的不確定性。預計未模擬但已存檔的相應全電路數據將顯示類似的統計上顯著的保真度。對於m = 20,在量子處理器上獲得一百萬個樣本需要200秒,而在一百萬個內核上進行等保真度經典採樣將花費10,000年,而對保真度的驗證將花費數百萬年。

仍可直接驗證保真度的最大電路具有53量子比特和簡化的門電路。以0.8%的保真度對它們執行隨機電路採樣需要130萬個內核,耗時130秒,相當於量子處理器相對於單個內核的百萬倍加速。

現在,我們開始對計算上最困難的電路進行基準測試,這只是對兩個量子位門的重新佈置。在圖4b中,我們顯示了FX Ë 乙用於深度不斷增加的53比特補丁和全至尊電路的隱蔽版本。對於具有53個量子比特和20個週期的最大電路,我們在十個電路實例中收集了N s = 30×10 6個樣本,得出FX Ë 乙= (2.24 ± 0.21 )× 10− 3用於消隱電路。以5σ置信度,我們斷言在量子處理器上運行這些電路的平均保真度至少大於0.1%。我們期望圖4b的完整數據應具有相似的保真度,但是由於仿真時間(紅色數字)需要很長時間才能檢查,因此我們已將數據存檔(請參見“數據可用性”部分)。因此,數據處於量子至上狀態。

經典計算成本

我們在經典計算機上模擬實驗中使用的量子電路,有兩個目的:(1)通過計算驗證我們的量子處理器和基準測試方法 FX Ë 乙在可能的情況下使用可簡化的電路(圖4a),以及(2)估算FX Ë 乙以及採樣最困難電路的經典成本(圖4b)。多達43個量子位,我們使用Schrödinger算法,該算法模擬了完整量子態的演化。Jülich超級計算機(具有100,000個內核,250 TB)運行情況最大。超過此大小,沒有足夠的隨機存取存儲器(RAM)來存儲量子狀態42。對於更大的量子比特數,我們使用混合Schrödinger–Feynman算法43在Google數據中心上運行以計算單個位串的幅度。該算法將電路分解為兩個量子位補丁,並使用Schrödinger方法有效地模擬每個補丁,然後再使用一種類似於費曼路徑積分的方法將它們連接起來。儘管具有更高的內存效率,但隨著路徑深度與連接補丁的門的數量呈指數增長,隨著電路深度的增加,Schrödinger-Feynman算法的計算量也成倍增加。

為了估算至上電路的經典計算成本(圖4b中的灰色數字),我們在Summit超級計算機以及Google集群上運行了部分量子電路仿真,並推斷出全部成本。在此推斷中,我們通過按比例縮放驗證成本來考慮採樣的計算成本FX Ë ,0.1%的保真度降低了約1000的成本。上峰會超級計算機,這是目前世界上最強大的,我們使用由Feynman路徑-積分是最有效的在低深度啟發的方法。在m = 20時,張量無法合理地放入節點內存中,因此我們只能測量直到m = 14的運行時,為此我們估計,採樣1%保真度的300萬個位串將需要一年。

在Google Cloud服務器上,我們估計 使用Schrödinger–Feynman算法以0.1%的保真度在m = 20時執行相同的任務將耗費50萬億個核心小時,並消耗1皮瓦小時的能源。從角度來看,對量子處理器上的電路進行三百萬次採樣需要600秒,而採樣時間受到控制硬件通信的限制;實際上,淨量子處理器時間僅為30秒左右。來自所有電路的位串樣本已在線存檔(請參見“數據可用性”部分),以鼓勵開發和測試更高級的驗證算法。

有人可能想知道算法創新可以在多大程度上增強經典模擬效果。我們假設的基礎上,從複雜性理論的見解,是這個算法任務的成本是電路尺寸指數。實際上,模擬方法在過去幾年中穩步提高。我們預計最終將實現比此處報告的更低的仿真成本,但我們也希望大型量子處理器的硬件改進將始終超過仿真成本。

驗證數字錯誤模型

量子誤差校正的理論基礎的關鍵假設是,量子態的錯誤可以被認為是數字化的和局部。在這樣的數字模型下,演化量子態中的所有誤差都可以通過散佈在電路中的一組局部保利誤差(位翻轉或相位翻轉)來表徵。由於連續幅度是量子力學的基礎,因此需要測試量子系統中的錯誤是否可以視為離散和概率。確實,我們的實驗觀察結果支持該模型對處理器的有效性。我們的系統保真度可以通過一個簡單的模型很好地預測,在該模型中,每個門的各個特徵保真度相乘在一起(圖4)。

為了由數字化誤差模型成功描述,系統的相關誤差應該很小。我們通過選擇隨機電路和去相關的錯誤,通過優化控制,以儘量減少系統誤差和滲漏,並通過設計運行速度比相關噪聲源快得多門,如1 /做到這一點在我們的實驗˚F通量噪音。通過對高達的希爾伯特空間的預測性不相關誤差模型進行演示,可以表明我們可以構建一個系統,在該系統中,量子資源(例如糾纏)不會非常脆弱。

未來

基於超導量子位的量子處理器現在可以在2維的希爾伯特空間執行計算53 ≈9×10 15,超越最快古典超級計算機的範圍今天可用。據我們所知,該實驗標誌著只能在量子處理器上執行的第一個計算。因此,量子處理器已達到量子至上的狀態。我們預計,他們的計算能力將繼續以雙指數率增長:與計算量成倍模擬量子電路增加的成本古典和硬件的改善可能會遵循量子處理器相當於摩爾定律的,每隔幾年將此計算量增加一倍。為了維持雙指數的增長速度,並最終提供運行眾所周知量子算法,如紹爾所需的計算量或格羅弗算法25,54,量子糾錯的工程將需要成為大家關注的焦點。

Bernstein和Vazirani 55提出的擴展的Church-Turing論文斷言,任何“合理”的計算模型都可以由Turing機有效地模擬。我們的實驗表明,現在可以使用一種違反此主張的計算模型。我們已經使用物理上可實現的量子處理器(具有足夠低的錯誤率)在多項式時間內執行了隨機量子電路採樣,但是對於經典的計算機器,尚不存在有效的方法。這些發展的結果是,量子計算正在從研究主題過渡到釋放新計算能力的技術。我們只是遠離有價值的近期應用程序的一種創新算法。


分享到:


相關文章: