Google 用自家 Sycamore 量子處理器展示量子糾錯(quantum error correction)進展,Google 量子 AI 研究人員首次透過實驗證明,可透過增加量子位元(quantum bit,qubit)降低錯誤率,以運算大規模量子電腦,科學期刊《自然》(Nature)更在 22 日發表 Google 這項研究。
Google 量子 AI 團隊目標是建造一台有約 100 萬個量子位元的量子電腦,但要發揮作用,必須能大規模執行量子演算法。
「實現目標的唯一方法是引進量子糾錯」,論文作者之一 Hartmut Nevan 博士表示,團隊首次實驗證明,受 surface code 糾錯保護的量子位元確實可縮放,使量子運算錯誤率更低。
量子糾錯可透過跨多個物理量子位元編碼資訊,形成邏輯量子位元(logical qubit)保護資訊。合適條件下,建構一個邏輯量子位元的物理量子位元越多,邏輯量子位元就會越強。但若每個額外物理量子位元增加的錯誤超過量子糾錯優勢,這方法就行不通,會導致高錯誤率。
Google 量子 AI 團隊使用稱為 surface code 的特定糾錯代碼,增加量子位元數量,可降低錯誤率,以 49 個量子位元製作邏輯量子位元的表現,勝過 17 個量子位元製作的邏輯量子位元,是人們第一次成功達成縮放邏輯量子位元的實驗性里程碑,研究成果更登上《自然》期刊。
Our latest quantum milestone, in @Nature today: for the 1st time ever, @GoogleQuantumAI has experimentally demonstrated that it’s possible to reduce errors by increasing the # of qubits, bringing us a step closer to large-scale quantum computers. #GoogleAI https://t.co/NTh50sPjP8
— Sundar Pichai (@sundarpichai) February 22, 2023
▲ Google 執行長皮蔡(Sundar Pichai)表示,這讓 Google 離大規模量子電腦更近一步。
Google 突破大幅改變操作量子電腦方式,不再逐一處理量子處理器的物理量子位元,而是將一組量子位元視為一個邏輯量子位元以降低錯誤率,實現有用的量子演算法。
- Suppressing quantum errors by scaling a surface code logical qubit
- Google’s improved quantum processor good enough for error correction
- Google claims milestone in quantum error correction
(首圖來源:Google Blog)