前沿报告 | 机器学习与量子计算

2022-03-31 16:11:37 浏览数 (1)

这是2019年12月6日发表在顶级期刊《现代物理评论》上的综述文章“Machine learning and the physical sciences”。作者为Giuseppe Carleo ,Ignacio Cirac等 。翻译:Wendy 翻译稿链接:https://blog.csdn.net/Wendy_WHY_123/article/details/104825788

Ⅴ.量子计算

量子计算使用量子系统来处理信息。在最流行的基于门的量子计算框架(Nielsen和Chuang,2002年)中,一种量子算法描述了通过离散变换将个两级系统(称为量子比特)的量子系统的初始状态演化为最终状态的过程。门通常仅作用于少量的量子位,并且门的顺序定义了计算。

机器学习和量子计算的交叉领域在过去几年中已成为活跃的研究领域,并且包含多种将两个学科融合的方法[参考Dunjko和Briegel的综述(2018)]。量子机器学习解决的问题是如何利用量子计算机增强、加速或创新机器学习(Biamonte等人,2017; Ciliberto等人,2018; Schuld和Petruccione,2018a)(另见第VII和V节)。量子学习理论重点在于研究量子框架下学习的理论方面(Arunachalam and de Wolf,2017)。

本节我们关注第三个维度,即机器学习如何帮助我们构建和研究量子计算机。这个维度包括很多主题,包括使用智能数据挖掘方法来发现材料中可用作量子位的物理区域(Kalantre等,2019),量子装置的验证(Agresti等,2019),学习量子算法的设计(Bang等人,2014; Wecker等人,2016),促进量子电路的经典模拟(Jónsson等人,2018),量子实验的自动化设计(Krenn等人,2016; Melnikov) 等人,2018),并学习从测量中提取相关信息(Seif等人,2018)等。

我们关注三个与量子计算有关的,可以通过一系列机器学习方法来解决的一般问题:利用测量重建基准量子态的问题;利用量子控制制备量子态的问题;通过量子纠错来保持状态中存储的信息的问题。第一个问题被称为量子态层析成像,它特别有助于理解和改进当前量子硬件的局限性。量子控制和量子纠错解决了相关问题,但是前者通常指的是与硬件相关的解决方案,而后者则使用算法解决方案来解决用量子系统执行计算协议的问题。

与本综述中的其他学科相似,机器学习在所有这些领域都显示出令人鼓舞的结果。并且从长远来看,它将有可能进入量子计算工具箱,与其他公认的方法并列使用。

A 量子态层析成像

量子态层析成像(QST)的总体目标是通过实验获得的测量结果来重建未知量子态的密度矩阵。QST 通常是量子信息和量子技术领域的核心工具,通常被用作评估实验平台的质量和局限性的一种方式。然而,执行全量子态层析成像所需的资源极其苛刻,所需的测量数量随着量子位或量子自由度而指数增长[(Paris and Rehacek,2004)是关于该主题的综述,(Haah等人,2017年;O’Donnell和Wright,2016年)探讨了状态层析成像学习的难度]。

机器学习工具已经在几年前被用来降低全量子态层析成像成本的工具,主要是利用了密度矩阵的某些特殊结构。压缩感知(Gross等人,2010)是解决该问题的一种重要方法,对于秩为和维数为的密度矩阵,可以将所需的测量次数从减少到。例如,已经针对六光子状态(Tóth等人,2010)或捕获离子的七量子比特系统(Riofrío等人,2017)实现了该技术的成功实验。

在方法论方面,全 QST 最近已经看到了深度学习方法的发展。例如,使用基于神经网络的有监督方法,将全密度矩阵作为输出,并将可能的测量结果作为输入(Xu和Xu,2018) 。最近还使用基于神经网络的方法解决了为 QST 选择最佳测量基础的问题,该方法使用贝叶斯规则优化了目标密度矩阵上的先验分布(Quek等人,2018)。通常,全 QST 的机器学习方法可以用作减轻测量要求的可行工具,但是它们不能对 QST 的固有指数规模提供改进。

通常仅在假定量子态具有某些特定正则性的情况下才能克服指数壁垒。基于密度矩阵的张量网络参数化的层析成像是该方向上的重要第一步,能够对大型低纠缠量子系统进行层析成像(Lanyon等,2017)。近年来,基于参数化 QST 的 ML 方法已成为一种可行的选择,尤其是对于高度纠缠的状态。具体而言,假设采用 NQS 形式(在纯态情况下,请参见方程3),可以将QST重新表述为无监督机器学习任务。在纯态的情况下,已经证明了一种获取波函数相位的方案(Torlai等人,2018)。

在这些应用中,多体波函数的复数相位是在不同基础上重构与测量过程相关的几种概率密度时获得的。总的来说,这种方法可以演示高达约100量子位的高度纠缠态的QST,这对于全 QST 技术而言是不可行的。层析成像方法可以适当地概括为混合态,以基于纯化的NQS(Torlai和Melko,2018)或基于深度归一化流量(Cranmer等,2019)引入密度矩阵的参数化。前一种方法也已经用 Rydberg 原子进行了实验证明(Torlai等,2019)。

最近也提出了一种有趣的替代方法,用于断层摄影的 NQS 表示(Carrasquilla等,2019)。这是基于直接根据正算子值度量(POVM)对密度矩阵进行参数化。因此,这种方法具有直接学习测量过程本身的重要优势,并且已经证明可以在相当大的混合状态下很好地缩放。与基于 NQS 的方法中的显式参数化相反,此方法可能的不便之处在于,仅根据生成模型隐式定义了密度矩阵。

QST 的其他方法还探索了使用参数化为局部哈密顿量基态的量子态(Xin等人,2018),或绕过 QST 直接测量量子纠缠的可能性(Gray等人,2018)。扩展到更复杂的量子过程层析成像问题也很有希望(Banchi等,2018),而基于 ML 的方法在更大系统上的可扩展性仍然带来挑战。最后,从实验测量中学习量子态的问题也对理解量子系统的复杂性具有深远的影响。在此框架中,PAC 量子态的可学习性(Aaronson,2007)在(Rocchetto等人,2017)中进行了实验证明,而“阴影层析成像”方法(Aaronson,2017)则表明即使是线性大小的训练集也可以提供足够的信息以成功完成某些量子学习任务。这些信息理论保证带有计算限制,学习仅对特殊类别的状态有效(Rocchetto,2018)

B.控制和制备量子比特

量子控制的中心任务如下:给定一个演化,该演化依赖于参数并将初始量子态映射到=|,其中是最小制备状态与目标状态之间的重叠或距离。

为了促进分析研究,通常将可能的控制干预空间离散化,以使= 成为步骤序列。例如,可以仅在两个不同的强度和上应用控制场,目标是找到最优策略 { ,},以使初始状态仅使用这些离散操作尽可能接近目标状态。

这可以直接推广到强化学习框架(Sutton和Barto,2018)。在该框架中,智能体从允许的控制干预列表中选择“动作”,例如应用于量子位量子态的两个场强。事实证明,该框架在各种环境下均能与最新方法竞争,例如相互作用量子比特的不可整合多体量子系统中的状态准备(Bukov等人,2018)或使用强周期振荡准备所谓的“ Floquet-engineered”状态(Bukov,2018年)。最近的一项研究(强化学习)与传统优化方法(例如,随机梯度下降)用于准备单个量子状态的比较表明,如果“动作空间”自然离散且足够小,则学习是有利的(Zhang等, 2019)。

在更现实的设置(例如控制存在噪声)中问题变得越来越复杂(Niu等人,2018)。有趣的是,控制问题也已通过使用递归神经网络来分析历史噪声的时间序列来预测未来的噪声来解决。使用该预测,可以校正预期的未来噪声(Mavadia等,2017)。

另一种基于机器学习的量子比特制备方法则试图找到蒸发冷却的最佳策略来产生玻色-爱因斯坦凝聚(Wigley等,2016)。这种基于贝叶斯优化的在线优化策略(Frazier,2018; Jones等,1998)采用高斯过程作为统计模型,来捕捉控制参数与冷凝液质量之间的关系。对于冷却协议,这种机器学习模型发现的策略的迭代次数比纯优化技术少10倍。这里与传统机器学习不同的是,高斯过程可以确定哪些控制参数比其他参数更重要 。

另一个维度是通过“学习”光学仪器的序列制备高度纠缠的光子量子态(Melnikov等人,2018)。

C 量子纠错

建立通用量子计算机的主要挑战之一是纠错。在任何计算过程中,硬件的物理缺陷都会引入错误 。经典计算机可以简单地通过复制信息进行纠错,但量子力学的不可克隆定理需要更复杂的解决方案。最著名的表面编码方案规定将一个“逻辑量子比特”编码成几个“物理量子比特”的拓扑状态。对这些物理量子比特的测量揭示了一系列错误事件的“足迹”,称为综合症。解码器将综合症映射到错误序列,一旦知道该错误序列,就可以通过再次应用相同的错误序列来纠正该错误序列,而不会影响存储实际量子信息的逻辑量子位。粗略地说,因此,量子纠错技术的艺术是从综合征中预测误差,这是一个很自然地适合机器学习框架的一项任务。

在过去的几年中,已经将各种模型应用于量子纠错,从有监督学习到无监督学习和强化学习。它们的应用细节变得越来越复杂。其中一个方法从对形式的数据集中训练玻尔兹曼机来描述。可以用来从分布中采样样本(Torlai和Melko,2017)。这个简单的方法在某些错误类型上的性能可与普通基准媲美。综合症与错误之间的关系同样可以通过前馈神经网络来学习(Krastanov and Jiang,2017; Maskara等,2019; Varsamopoulos等,2017)。

然而,由于可能的解码器空间爆炸并且数据采集成为问题,因此这些策略受到可扩展性问题的困扰。最近,神经网络已经与重整化群概念相结合来解决这个问题(Varsamopoulos等,2018),例如研究神经网络不同超参数的意义(Varsamopoulos等,2019)。

除了可扩展性之外,量子纠错中的一个重要问题是综合征测量过程也可能引入错误,因为它涉及应用小的量子电路。此设置增加了问题的复杂性,但对于实际应用而言是必不可少的。可以通过重复进行综合征测量循环来减少错误识别中的噪声。为了考虑额外的时间维度,已经提出了递归神经网络架构(Baireuther等人,2018)。另一个途径是将解码视为强化学习问题(Sweke等,2018),智能体可以选择对物理量子位(而不是逻辑量子位)进行连续操作来校正综合症,如果序列可以得到奖励 ,则错误得到更正。

虽然许多用于纠错的机器学习都侧重于根据某种设置方案用物理量子位表示逻辑量子位的表面代码,但强化智能体也可以与代码无关地设置(有人可以说,他们与解码策略一起学习了代码 )。量子存储器已经做到了这一点,量子系统应该在其中存储而不是操纵量子态(Nautrup等人,2018),以及在反馈控制框架中保护量子位免受退相干(Fösel等人, 2018)。最后,除了传统的强化学习之外,射影模拟等新策略也可用于对抗噪声(Tiersch等人,2015)。

总而言之,用于量子纠错的机器学习是一个具有多层复杂性的问题。对于实际应用而言,它需要相当复杂的学习框架。尽管如此,机器学习,尤其是强化学习,是一个非常好的选择

0 人点赞