神经网络已经学会了纠正量子计算过程中出现的错误,其性能优于由人类设计的算法。这一思路为实现量子计算机的实用化开辟了一条充满希望的道路。

量子计算常被认为具有解决传统计算机无法解决的问题的潜力——从模拟用于药物研发的分子到优化复杂的物流系统。然而,量子计算的发展道路上还存在一个重大障碍:量子处理器容易受到环境和其他因素的干扰而出错。解决这一挑战对于制造实用的量子计算机至关重要。鲍施(Johannes Bausch)等人在《自然》杂志上发表文章,介绍了一种名为AlphaQubit的方法。该方法利用人工智能,在纠正量子错误方面实现了重大突破,推动研究人员向实现可扩展的量子计算迈出了关键的一步。

量子处理器使用量子比特,它们是量子信息的基本单位。这些处理器利用量子特性执行复杂计算,使得设备能够以传统计算机所不能的方式处理信息。然而,使量子计算强大的这些特性同时也使其极其脆弱。量子比特高度敏感,这意味着它们更容易被最轻微的干扰影响,例如温度变化、电磁干扰,或仅仅是与其他量子比特间的相互作用。这些干扰会导致量子比特失去量子态,从而引发错误,而这些错误则会不断累积并影响计算。

为了解决这一问题,研究人员开发了利用冗余纠正量子错误的策略。其原理是,将信息编码在“逻辑”量子比特中,“逻辑”量子比特由比执行计算所需数目更多的物理量子比特组成。这种冗余允许一部分物理量子比特(称为“辅助”量子比特)在其他量子比特处理信息时检测并纠正错误。该方法使得量子计算机能够执行更久、更可靠的计算。量子错误纠正中最有前景的技术之一是表面码。它将量子比特组织成二维网格,并利用频繁的测量识别和修正错误。表面码因其高容错率以及与现有量子硬件的兼容性而备受青睐。

实现量子错误纠正的一个关键挑战是如何解码错误,即从检测错误的量子比特中提取信息,并将其转化为纠正措施。这一解码过程对确定如何在不干扰其余量子信息的情况下修复错误至关重要。传统上,解码主要依赖由人类设计的算法,其中包括一种被称为最小权重完美匹配的算法。这一算法在处理某些特定类型的错误时非常有效,但随着量子比特数量的增加以及噪声变得更加复杂,该方法往往难以奏效。现实世界中的量子错误包括串扰(即物理上相邻量子比特之间不必要的相互作用)和泄漏(即量子比特进入特定计算所需状态之外的其他状态)。

AlphaQubit 实际上也是一种量子错误纠正解码器,它利用机器学习解决量子纠错问题,与人类主导的方法存在本质区别。AlphaQubit 不依赖预先定义的容易产生错误的模型,而是通过数据直接从量子系统中学习,能够应对真实环境中复杂且不可预测的噪声。借助机器学习,AlphaQubit 可以识别可能被传统方法忽略的错误模式和错误间的关联。这使得 AlphaQubit成为比现有方法更加灵活和强大的解决方案。

AlphaQubit 基于Transformer 神经网络架构,是一种机器学习模型,已成功应用于自然语言处理、图像识别等多个领域。鲍施等人对 AlphaQubit 的训练分为两个阶段。首先,使用合成数据,让模型学习量子错误的基本结构,再使用来自谷歌“悬铃木”(Sycamore) 量子处理器的真实实验数据。接着,使模型能够适配真实硬件中遇到的特定噪声,从而提高整体准确度。

作者的关键创新点在于他们引入了软读出(soft readout)技术,这是一种在不对量子系统造成太大干扰的情况下从量子系统中提取模拟信息的方法。在传统的解码器中,测量结果要么是“0”,要么是“1”。而软读出则提供了关于量子比特状态的更详细信息,这使得 AlphaQubit 可以更准确地判断是否发生错误,以及如何纠正错误(见图 1)。

12

1 检测量子计算机中的错误。量子比特是量子信息的基本单位,极易受到干扰而失去量子态,从而影响量子计算机的效能。为缓解这一问题,可以将信息编码在一个被称为“逻辑”量子比特的量子比特集群中。“逻辑”量子比特由存储数据的量子比特和可被测量的“辅助”量子比特组成。通过一种被称为软读出的过程对“辅助”量子比特进行测量,检测和纠正错误。然而,对这些测量结果进行解码极具挑战性,通常需要借助模型来完成。鲍施等人的研究表明,与人类设计的模型相比,基于人工智能驱动的解码策略在量子纠错方面更加准确且适应性更强

在对真实数据和模拟数据的测试中,AlphaQubit都展示出了相较现有方法的明显优势。研究人员使用谷歌“悬铃木”量子处理器对AlphaQubit进行了评估,发现它能对表面码中距离为 3 和 5 的错误进行解码。这里的“距离”指的是同时发生的、让一个逻辑量子比特失效所需的最小错误数量。距离越大,每个逻辑量子比特涉及的物理量子比特数量越多,纠错就越复杂,但同时这也提供了更好的抗错误能力。这表明,AlphaQubit比现有的解码器(如最小权重完美匹配算法)更加精准。

鲍施等人的研究还表明,AlphaQubit可以在更大规模的量子系统中发挥作用,在代码距离高达 11 时仍能保持一定的准确度。这种可扩展性对未来的量子计算机至关重要。即使在包含大量噪声(例如串扰和泄漏)的情况下,AlphaQubit的表现仍然优于现有的最先进方法。这一结果表明,机器学习可以比传统的人类设计算法更好地应对现实世界中复杂的量子噪声。

AlphaQubit的成功是实现容错量子计算的一个里程碑。容错意味着即使量子计算机的一些组件出现故障或错误,量子计算机仍然可以正常运行。通过利用机器学习增强纠错能力,AlphaQubit为量子处理器高效自我纠错铺平了道路,使大规模量子计算变得更加可行。AlphaQubit能够适应新数据并随着时间的推移不断改进,这在量子硬件快速发展的背景下展现了极大的潜力。

然而,尽管取得了这些令人印象深刻的成果,逻辑错误率仍需进一步降低。在理想情况下,要运行包含数千或数百万次操作的复杂量子算法(这是实现实用量子计算的基本要求),每一万亿次逻辑操作中的错误次数不应超过一次。AlphaQubit成功地将错误率控制在约每35次逻辑操作出现一次错误的水平。因此,要满足实时量子计算的需求,AlphaQubit还需要进一步改进。

AlphaQubit 的优势之一在于其从数据中学习的能力,这使它能够高度适配各种类型的量子硬件。这种适配性非常重要,因为量子硬件仍处于早期开发阶段,不同的量子处理器可能具有不同的噪声特性。通过直接从实验数据中学习,AlphaQubit能够针对每种设备优化其性能,提供定制化的纠错方案。

鲍施和其团队的贡献不仅仅在于纠正量子错误,它还代表了一种思路上的转变,即适应性学习在量子系统管理中可以发挥核心作用。这种方法使模型能够从每种量子设备的细微特性中学习。随着量子硬件的不断发展,这一特性将变得至关重要。通过改进控制错误的方式和帮助量子计算机在规模和复杂性增长的过程中保持正常运行,这种适应性有助于弥合当前噪声大、易出错的量子设备与未来容错量子计算机之间的差距。

此外,将Transformer神经网络应用于量子纠错,凸显了机器学习模型的全面性,因为这些模型最初是为了完全不同的应用目的而开发的。AlphaQubit的成功表明,其他类型的机器学习模型也可用于解决量子计算的特定难题——从优化量子电路到开发量子算法。这凸显了跨界融合带来突破性进展的巨大潜力。

尽管还有许多工作要做,鲍施等人的研究向最终目标(开发能够执行可靠、大规模、无错误计算的量子计算机)迈进了一步。这项研究不仅展示了人工智能在增强量子技术方面的强大作用,还开辟了新的研究方向。通过将量子物理学与机器学习相结合,这些创新可能会释放出量子领域的真正潜力。

资料来源 Nature

————————

本文作者纳迪娅·海德尔Nadia Haider)任职于QuTech公司的量子计算部和荷兰代尔夫特理工大学微电子系