量子计算的发展
一、量子信息科学
类似经典计算之于宏观物理的关系,量子计算同样也与微观物理有着千丝万缕的联系。
在微观物理中,量子力学衍生了量子信息科学。量子信息科学是以量子力学为基础,把量子系统“状态”所带的物理信息,进行信息编码、计算和传输的全新技术。在量子信息科学中,量子比特(qubit )是其信息载体,对应经典信息里的 0 和 1,量子比特两个可能的状态一般表示为|0>和 |1>。在二位复向量空间中,|0>和 |1> 作为单位向量构成了这个向量空间 的一 组标准 正交基 ,量 子比特 的状态 是用一 个叠 加态表 示的,|
> 如 = a|0> >b | 1 > ,
,而且测量结果为 | 0 > 态的概率是 ܽ
,得到 | 1> 态的概率是
。 这说明一个量子比特能够处于既不是| 0 > 又不是 | 1> 的状态上,而是处于和的一个线性组合的所谓中间状态之上。经典信息可表示为 0110010110...,而量子信息可表示为
一个经典的二进制存储器只能存一个数:要么存 0,要么存 1;但一个二进制量子 存储器却可以同时存储 0 和 1 这两个数。两个经典二进制存储器只能存储以下四个数中 的一个数: 00 , 01 , 10 或 11 ,倘若使用两个二进制量子存储器,则以上四个数可以同时被存储下来。按此规律,推广到 N 个二进制存储器的情况,理论上,n 个量子存储器与 n 个经典存储器分别能够存
个数和 1 个数。 由此可见,量子存储器的存储能力是呈指数增长的,它与经典存储器相比,具有更强大的存储数据的能力,尤其是当 n 很大时 ( 如 n=250 ) ,量子存储器能够存储的数据量比宇宙中所有原子的数目还要多 。量子信息技术内容广泛,由于它是量子力学与信息 科学形成的一个交叉学科,所以它有很多分支,最主要的两支为量子通信和量子计算。量子通信主要研究的是量子介质的信息传递功能进行通信的一种技术,而量子计算则主要研究量子计算机和适合于量子计算机的量子算法。由于这个量子计算分支具有巨大的潜在应用价值和重大的科学意义,获得了世界各国的广泛关注和研究。
二、费曼的两个问题
理查德·费曼
对于量子计算的真正发展,业界普遍认为源自 20 世纪最具丰富多彩的科学家,诺贝尔奖获得者 理查德·费曼(Richard Feynman)在 1982 年一次公开演讲中提出的两个问题:
1、经典计算机是否能够有效地模拟量子系统?
虽然在量子理论中,仍用微分方程来描述量子系统的演化,但变量的数目却远远多于经典物理系统。所以理查德·费曼(Richard Feynman)针对这个问题的结论是:不可能,因为目前没有任何可行的方法,可以求解出这么多变量的微分方程。
2、如果放弃经典的图灵机模型,是否可以做得更好?
理查德·费曼(Richard Feynman) 提出如果拓展一下计算机的工作方式,不使用逻辑门来建造计算机,而是一些其他的东西,比如分子和原子;如果使用这些量子材料,它们具有非常奇 异的性质,尤其是波粒二象性,是否能建造出模拟量子系统的计算机?于是他提出了这 个问题并做了一些验证性实验,然后他推测,这个想法也许可以实现。由此,基于量子 力学的新型计算机的研究被提上了科学发展的历程。
三、发展历程
此后,计算机科学家们一直在努力攻克这一艰巨挑战。伴随时代发展的趋势,量子计算机的算法发展得到了巨大的进步:
1992 年,Deutsch 和 Jozsa 提出了 D-J 量子算法,开启了如今量子计算飞速发展的大幕。
1994 年,Peter Shor 提出了 Shor 算法,这一算法在大数分解方面比目前已知的最有效的经典质因数分解算法快得多,因此对 RSA 加密极具威胁性,该算法带来巨大影响力的同时也进一步坚定了科学家们发展量子计算机的决心。
1996 年,Lov Grover 提出了 Grover 量子搜索算法,该算法被公认为继 Shor 算法后的第二大算法。
1998 年,Bernhard Omer 提出量子计算编程语言,拉开了量子计算机可编程的帷幕。
2009 年,MIT 三位科学家联合开发了一种求解线性系统的 HHL 量子算法。众所周知, 线性系统是很多科学家和工程领域的核心,由于 HHL 算法在特定条件下实现了相较于经典算法有指数加速效果,这是未来能够在机器学习,人工智能科技得以突破的关键性技术。
2010 年,在量子计算软硬件方面各大研究公司均有不同程度的突破。
2013 年,加拿大 D-Wave 系统公司发布了 512Q 的量子计算设备。
2016 年, IBM 发布了 6 量子比特的可编程量子计算机。
2018 年初,Intel 和 Google 分别测试了 49 位和 72 位量子芯片。
2018 年 3 月,谷歌宣布推出 72 量子比特超导量子计算机,他们发布的主要指标是单比特操作的误差是 0.1%,双比特门操作的误差是 0.6%。
2019 年 1 月, IBM 发布了世界上第一台独立的量子计算机 IBM Q System One 。
2019年10月,谷歌称其开发出一款 54 量子比特数的超导量子芯片 Sycamore。基于该芯片,谷歌对一个53比特、20深度的电路采样一百万次只需200秒。
2020 年,霍尼韦尔成为第一个用其 6Q H0 和 10Q H1 处理器达到 QV 64 和 QV 128 的厂商。
2020年,IonQ 宣布了一款 32Q 设备,他们希望获得比以前高得多的 QV,尽管他们现在更喜欢谈论一种新的衡量指标——算法量子比特(AQ)。算法量子位比特(AQ)——IonQ 定义为可用于计算的有效量子比特的数量(注意:可用逻辑门深度仍有限)。在没有纠错编码的情况下,AQ = log 2(QV)。
2021 年 11 月 15 日,IBM 推出全球首个超过100量子比特的超导量子芯片——Eagle,该量子芯片拥有 127 个量子比特,采用了全新的芯片架构,基于 IBM 之前公布的六边形量子芯片,堆叠了多层芯片,但减少了之间的链接,链接越少,干扰就越少。
2021年11月18日,中国团队在2021戈登贝尔奖上夺冠,获奖应用超大规模量子随机电路实时模拟(SWQSIM),可在304秒内得到百万更高保真度的关联样本,在一星期内得到同样数量的无关联样本。
2022年的IBM量子峰会上,该公司宣布了Osprey,它拥有其所有处理器中最大的量子比特数,达到433个量子比特。