一文读懂:有关量子计算的十个问题

2023-11-16 20:33:30 浏览数 (2)

​腾讯研究院·腾讯量子实验室 联合出品

随着人工智能大模型、量子计算、类脑智能、云原生、数字引擎、音视频等技术的深入发展,新技术、新模式和新业态持续涌现。 针对上达领域,我们策划了一个科普系列栏目《T-chat前沿热点问答》,以十问十答的形式,用通俗的语言,与大家交流最新、最热的前沿科技话题。 本文是T-Chat 系列第二篇。 也欢迎大家指导,并提出感兴趣的问题一起研究,持续送代认知,共同进步。

除了巧思妙答的ChatGPT以外,近期另一个引人关注的热点话题,就是量子计算机了。 它一边在科幻电影《流浪地球2》中,扮演拥有强大能力和智慧的未来计算机“MOSS”,一边又以“The Quantum Leap” (量子飞跃) 为题,登上著名期刊《时代》杂志的2月封面。 可对于一般大众来说,在网络上看到的诠释和解读,似乎只能带来高深莫测的模糊感; 一连串似懂非懂的概念,也只能沦为谈资里似懂非懂的只言片语。

那么,对于量子计算机,我们究竟应该如何理解呢? 它和ChatGPT有什么关系? 身处数字时代的崭新阶段,我们又应该如何正确认识它、利用它、并对它有一个更加现实的期待呢? 量子计算十问十答为你一一道来。

文章目录:

1. “量子“和“量子计算”,到底是什么?

2. 量子计算机为什么对我们很重要?

3. 量子计算机和我们常见的计算机,有哪些区别?

4. “量子体积”越大,量子计算机就越厉害吗?

5. 量子计算机,真的“无所不能”吗?

6. 怎么造出“全知全能”的“未来计算机”?

7. 量子计算现在有实际应用了吗?

8. 量子计算,更适合做模拟仿真吗?

9. 目前国内外有哪些公司和机构在做量子计算?

10. 量子计算在实际应用前,还有哪些工作要做? 怎么才能加快实现实际应用?

“量子“和“量子计算”,

到底是什么?

量子计算,是基于量子力学原理,通过控制一定数量的量子单元,来进行计算的一种新型计算模式。 而量子计算机,正是用来实现和使用量子计算能力的计算机系统。

量子 (英文: Quantum) ,是一个现代物理学的重要概念,被认为是组成浩瀚宇宙、世间万物最小的、不可再分割的物理量单位。 比如太阳光,是由光子组成,而光子所携带的能量目前还不能被进一步分割,所以光子可以叫做量子。 此外,电子、中微子和夸克也都可以叫做量子。 而原子、离子、质子、中子等微观粒子,它们所携带的能量因条件不同而不同,所以不能简单判断是否能叫做量子。

量子的物理特性,与自然界中的物体 (如足球,饮料瓶) 完全不同,甚至超出我们一般人的常识和想象: 比如量子既可以像被踢出的足球一样在空中延曲线飞行,也可以像水波一样上下波动地向前飞行; 又比如将一只饮料瓶静置在水平桌面上,瓶子只能保持“正立”、“倒立”和“横躺”这三种状态中的一种,而同样静置桌面的量子,却可以同时保持“正立”、“倒立”和“横躺”这三种状态。

100多年前,普朗克、爱因斯坦等著名物理学家,发现了这些微观粒子特有的物理特性,并最终将这些特性,总结为现代物理两大理论基石之一的“量子力学”。 我们可以把基于量子力学原理进行信息化应用的技术,统称为量子信息技术,主要包含量子计算、量子通信和量子测量。

量子计算机为什么

对我们很重要?

从科技角度看,掌握量子计算技术,就掌握了未来发展的先机。 2023年,我们已经身处数字世界,城市运行、产业生产以及人们的生活,都在不停产生、处理和交换着信息。 而广泛存在于智能设备、网络、服务器和云平台中的计算能力 (简称“算力”) ,是支撑这一切最根本、最关键的能力。

目前,算力是基于我们熟知的、以CPU为核心的计算技术来实现的; 而未来,量子计算技术,则是更先进、更有希望实现未来算力的下一代计算技术。 量子计算技术犹如科技巅峰上的一颗璀璨明珠,备受学术界和工业界的关注。

从社会角度看,量子计算机是先进数字生产力的代表。 业界公布的一些量子计算机原型机,如谷歌“悬铃木”、IBM Q System以及我国中科院的“九章”,在科研实验中逐步展现了一些算力优势: 在完成特定计算任务时,能展现比超级计算机高数千倍以上的计算效率。 材料、医药、金融、物流、制造等众多行业纷纷开始关注、探索与尝试。 而量子计算机在信息安全、高性能计算领域的影响力,也已基本成为业界共识,引起各国高度重视。 目前已有十余个国家公布量子计算相关战略,量子计算机的研发一时成为国际热点。

对于咱们老百姓,量子计算机离我们还有些远,但值得期待。 虽然量子计算机的成熟应用,预计还要数十年甚至更长的时间,但是它在一些细分场景的逐步应用,应该会在不久的将来,给我们带来一些惊喜。 比如,辅助研制疑难杂症特效药、加快研发更轻便舒适的新型布料,等等。 当然,量子计算机作为商品走进千家万户,可能还是更遥远的事情,不过谁也无法预测技术发展与普及的速度。

量子计算机和我们常见的

计算机,有哪些区别?

量子计算机的最小计算元件,要比普通计算机 (智能手机、笔记本电脑、工控机、服务器等) 的先进得多,强大得多。 这是两者最根本的区别,并由此衍生出其他7个方面的区别。

这个问题的答案稍有些难懂,不过我们尽量以通俗的方式来讲解。 如果你能耐心看完下面的叙述,并尝试弄懂它,那你就初步掌握了理解甚至预测未来数字文明趋势的密码。

首先,想要理解两者的区别,要先了解一些基础知识:

数学,是人类最古老的一门科学,也是人类科学最基础的学科之一,帮助人们从数字的角度认识世界,并在世界中生存。

计算工具,是人们为了能更好地运用数学而发明的工具。 比如算盘,电子计算器,计算机。 通常,人们先将要解决的问题进行拆解和抽象,成为若干输入条件和数学模型,再使用计算工具来进行计算,最终从计算结果中获得解决问题的参考。

最小计算元件,是计算工具可以操作 (写入,存储,读取) 的、表示计算数值的最小物理元件。 最小计算元件的先进性,很大程度决定了一类计算工具的计算能力上限。 那么不同的计算工具的最小计算单元是怎样的呢?

算盘: 算盘的最小计算元件,是算盘下排的一个算珠,表示的计算数值是1,向上拨表示 1,向下拨表示-1;

普通计算机: 对于我们现在常用的智能手机、笔记本电脑、工控机、服务器等普通计算机来说,最小计算单元是中央处理器 (CPU) 上的一个晶体管,可以表示的数值是0或1。 当晶体管通电时,表示1,当晶体管断电时,表示0。 一个晶体管在经典计算原理中,代表一个二进制数位,叫做比特 (英文: Bit) ;

量子计算机: 量子计算机的最小计算单元是量子计算机核心组件 – 量子处理器 (QPU) 上的一个量子,可以表示的数值可以是0,或者1,或者是0和1的一系列概率上的组合 (比如: 80%的0 20%的1,或者40%的0 60%的1,等等。 这里比较难懂,不用理解,知道就好 ) 。 当人们通过量子计算机的输入设备,给量子发射特定的电脉冲,来使量子表示不同的数值。 一个量子在量子计算原理中,代表一个最小计量单位,叫做量子比特 (英文: Qubit) 。

到这里我们可以发现,一个量子,可以表示的计算数值,比一个晶体管要多很多。 这好比孙悟空和普通人相比,本领更大; 进一步,因为量子的“叠加态”特性,一个量子可以同时保持多种状态,也就意味着它可以同时表示多个计算数值。 这就好比孙悟空不仅本领大,还同时有多个分身,每个分身都和他一样强大。

了解完根本区别后,就开始揭晓“量子计算机和我们常见的计算机,有哪些区别”的其余答案:

1、制造最小计算元件的技术不同 (量子芯片工艺) : 量子计算机的芯片,目前有超导、光量子、离子阱等多种技术路线制备,而经典计算机的芯片,主要采用光刻机;

2、单个芯片内包含的最小计算元件数量不同: 最新的英伟达GPU H100,包含约500亿个晶体管,而IBM最新公布的量子芯片Osprey仅包含433个量子;

3、计算能力的不同: 仅拥有约50个量子的量子计算机,在完成特定计算任务时,已经可以比现在算力最强的经典计算机快数千、甚至数万倍以上;

4、硬件系统不同: 由于芯片工艺不同,且处于研发早期,相比经典计算机,目前的量子计算机均需要专门的配套设备和系统。 比如: 制冷机,数模控制系统等等。 这也使得目前的量子计算机从外观上显得比较笨重,有些像60年前刚问世不久的电子计算机;

5、软件系统不同: 一方面,量子计算的算法和应用程序,都需要适配量子计算原理,和经典计算机有很大不同。 不过很多研发团队已推出量子计算软件开发工具 (如IBM的Qiskit,谷歌的Cirq等) ,使开发更加便捷; 另一方面,无论是算法还是应用程序,因为要转换成量子可以运行的指令,量子计算机需要专门的编辑器,对软件进行编译;

6、应用领域不同: 业界一般认为,当前的量子计算机,相比经典计算机,会在以下的一些领域应用更广: 材料和药物研发,金融投资组合优化,物流调度,机器学习训练,气象预测等,而经典计算机已经广泛应用于所有领域,带动着整个社会的数字化。

7、技术成熟度不同: 经典计算机自1946年第一台电子计算机问世以来,历经60余年,技术、工艺和产业链已经趋于成熟,既可做得如智能手表一样小巧,又能在一块芯片上集成几百亿个晶体管; 而量子计算机的工程研发是从2012年前后才真正开始,到现在仅有10年,目前公布的量子计算机,更像是原型机和技术验证机,各项技术、工艺、以及产业链都还不稳定,更谈不到完善。

“量子体积”越大,

量子计算机就越厉害吗?

首先直接回答问题: 量子体积的确是评测量子计算机综合性能的重要指标。

为什么会有“量子体积”这个概念呢? 这是业界为了更准确描述不同技术路线的量子计算机的性能,而引入的一个与硬件无关的指标。 量子体积表示了量子计算机可以成功实现的方形量子电路的最大尺寸。 通俗来说,这个性能指标与量子比特的数量、量子电路最大深度、保真度、连通性、串扰等物理指标相关。 通常来说,量子计算机的量子体积越大,可以解决的问题就越复杂。

年初上映的《流浪地球2》让量子计算机又火了一把,影片中也出现了量子体积这个概念。 但值得一提的是,虽然MOSS非常科幻,但其标称的8192的量子体积,显然是描述得过小了。 2022年10月,量子计算公司Quantinuum就已在20比特的离子阱量子计算机中实现了8192这一目标,只不过量子计算原型机离实用化还有相当长的路要走。

作为一个性能衡量指标,现阶段量子体积显示出了一定的科学性和通用性。 但随着量子芯片工艺的飞速发展,未来可能会有更多相关的评价指标出现。 如IonQ公司目前就引入了“算法量子位”的指标替代量子体积。 在量子计算机逐步实现的过程中,可以预见会有更多更适应技术演进的评价指标出现。

量子计算机,

真的“无所不能”吗?

“无所不能”这个词有些科幻,更适合形容像《流浪地球2》中的智能计算机,在未来的通用性和泛在性: 能够广泛地应用于我们工作和生活的各个领域,远到完成复杂的科学计算,预警木星危机,中到模拟数字生命图丫丫,近到和我们聊聊天,帮我们打开房间里的台灯……

但量子计算机不是万能的。 虽然从现实的角度看,未来的计算机越来越强大的趋势是比较明确的,随时、随地、随处可用的未来计算机服务也是可以预期的,但是计算机依然不是“无所不能”的。 而这是由计算机的理论基础——数学决定的。 数学有一个分支叫做可计算性理论和计算复杂性理论,它告诉我们,世界上的很多问题,是无法通过计算来解决的,无论采用什么计算工具,量子计算机也不例外。

那既然量子计算机不是无所不能,那它能做什么,或者说擅长什么样的计算任务呢?

从数学的角度看,计算复杂性理论中,有一类问题叫做“BQP问题”,是理论上可以由量子计算机多项式时间内可以解决的问题。 典型的BQP类问题有: 整数分解问题,离散对数问题,模拟量子系统中的一些问题等等。 由此看来,在目前数学能够认知的问题领域中,量子计算机能够解决的问题,只是其中一部分。

简单总结,量子计算机更适合计算那些如果用经典计算机来计算,即使用最好的算法,计算量也非常大的一部分问题。 一个形象的例子,就是“大海捞针”问题: 解这道题的算法很简单,就是找遍大海的每一个针可以掉落到的角落。 但是这道题的工作量巨大,需要搜寻整个广袤的大海,从海面、到海底。 类似的问题,还包括在没有索引的情况下,在一个电话簿里查一个号码,在海量人脸中找到你的头像,等等。 即使如此,BQP一类问题也已经可以映射到金融投资组合优化、物流和交通优化等许多应用场景。 如果量子计算机未来真正解决了这些问题,对社会的贡献也是巨大的。

值得一提的是,当前热议的ChatGPT等人工智能大模型技术的研发,也可能和量子计算相关。 虽然还没有确定性的答案,但量子计算有希望在模型压缩、以及训练速度和模型性能等环节,对大模型的研发和提升起到积极作用,值得进一步关注。

从物理的角度看,量子计算机利用的是微观粒子的的特殊力学原理来实现计算的,所以那些同样以量子力学为基础理论的科研及实际应用问题,理论上就更加适合由量子计算机来解决。 我们可以直接想到的,如计算化学,分子模拟,新材料研发,医学药品研发等等。 这些问题都是在研究和利用原子分子级别的物质特性,研制具有特殊性能的、大自然中不存在的原子或者分子结构。 量子计算机很可能是未来更优的选择。

再简单说下量子计算机不擅长的。 由于量子计算机的实现原理,目前的量子计算机的研发过程中,存在一个重大的难题: 噪声问题。 简单说,就是在操作量子进行计算的时候,量子本身的稳定性、量子之间相互的影响以及操控动作本身,均会产生计算任务本身不需要的干扰。 而这些干扰会直接影响计算结果的准确性,甚至会造成计算中断和失败。 虽然科学家在不断改进量子的退相干和纠错技术,提高计算准确的概率,但依然达不到百分之百。

当前的量子计算机还不能直接计算出一个结果,只能在一定的概率下,通过观测得到一个确定的结果。 就好比让现在的量子计算机计算“1 1”,只有一定的概率可以得到2的结果,更不要说让量子计算机来计算更复杂的问题了。

虽然经典计算机也会算错,但经典芯片已具备自动发现错误和修复的能力,因此最终可以得到准确结果。 所以这一类精确的数值计算问题和逻辑判定问题,当前水平的量子计算机相比经典计算机,是不擅长的。 但是,量子计算领域也在研发适合量子特性的纠错技术,量子纠错码和量子容错理论可以通过精巧的数学设计,用多个不完美的量子比特产生更为完美的量子比特,并通过特定容错量子操作,来实现更多步骤,实现更精确计算。 最终,随着采用的纠错码越来越强大,最终可以将整个计算过程的错误率控制到接近于零。 这样,量子计算机就可以精准进行我们想要实现的计算了。

怎么造出“全知全能”的

“未来计算机”?

上个问题我们讨论到,计算机并不是无所不能的,但以目前人类的科技实力,造出具备超越人类知识和智慧的能力、解决复杂科学难题、甚至支撑“元宇宙”这样庞大虚拟世界体系的强大“未来计算机”,也不是完全不可能。 正如人类数百年前发明第一台蒸汽机,而后逐步迭代技术和组织形式,建立工业生产线和产业链一样,未来计算机的制造,也要紧跟不断演进的计算科学技术,逐步实践、迭代和研发,多方主体共同努力能有机会实现。

“擅长的人做擅长的事”,这是目前行业对于未来计算机发展的一个比较明确的共识,换句话说,就是把不同的计算任务,分配给擅长的计算单元和计算系统来完成。 之前提到,经典计算机和量子计算机有各自擅长的计算任务,所以如果设想未来计算机的制造思路,一个非常重要的举措就是: 造出量子计算机,并将量子计算机与经典计算机相结合,进行系统集成甚至连接成算力网络。

制造量子计算机和经典计算机类似,也要先造出硬件系统和软件系统。

制造量子计算机的硬件系统,由于目前尚处于早期研发阶段,技术难度相对高很多。 首先,需要制造量子计算机的核心计算单元——量子处理器 (英文简称QPU,也称量子芯片) 。 QPU是制备和保存量子计算的最小计算单元“量子比特”的硬件系统,功能类似CPU。 目前制备量子比特的技术路线至少有7种,被头部量子计算机研发机构采用的,有超导量子、光学量子、和离子阱,还有中性冷原子、量子点、金刚石NV色心、拓扑量子等,也均在不断研发中。

其次,有了QPU,还需要QPU运行起来,产生量子以及操控量子进行计算。 所以还需要一系列的配套系统。 常见的配套系统有: 测控系统、低温设备和组件,超高真空腔、激光器、光子探测器等等。 QPU和配套系统,组成量子计算机的“主机”。

第三,量子计算机的输入输出,目前还需要经典计算机的辅助,所以量子计算机的主机通常会连接若干经典计算机,便于操作人员通过键盘鼠标输入计算任务,或者从其他计算机系统中导入计算任务。

量子计算机同样需要软件。 首先,需要一系列底层软件,类似现在的“主板驱动”和“操作系统”,来管理和操控量子计算机硬件,编译和运行量子计算软件; 其次,需要“编程语言和工具”,来编写量子软件和算法,因为量子计算机的原理和普通计算机不同,所以也需要特殊的语言和工具; 第三,为了解决现实中的实际问题,量子计算机需要安装对应的量子软件,如量子化学分析软件,量子模拟软件等; 第四,在量子软件内部,一般装载着相关的量子算法,来完成计算工作;

QPU、配套系统、输入输出系统、底层软件、编程语言和工具、应用、算法,这些硬件和软件系统需要同时协同运行,才能真正发挥量子计算机的卓越算力,为社会实际创造价值。

将以QPU为计算核心的量子计算机,与以CPU GPU为计算核心的经典计算机相结合的科研探索,已经在高性能计算领域首先开始。 高性能计算,是追求极致算力的计算机领域,它引领了整个计算机行业的发展,很多计算机行业的技术,如Hadoop等,都是由高性能计算领域首先研发出来的。 国际上如IBM量子计算团队已将量子计算机作为其下一代高性能计算的核心,而“欧洲高性能计算联合项目 (EUroHPC JU) ”已展开将量子计算机与超级计算机进行集成的实验研究; 芯片公司英伟达也在前不久推出了可以融合量子计算和高性能计算资源调用的混合计算平台QUDA; 亚马逊、微软等云计算服务商也已经看准了这个趋势,将量子计算机的能力搬上云,先后开放了量子计算云平台服务。 CPU GPU QPU的高性能计算3.0时代已经开启。

相信随着量子计算机研发的不断进展,以及量子计算机与经典计算机的相互结合与协同发展,强大的“未来计算机”一定会在不久的将来问世,在《流浪地球2》中类似的人类历史时刻,承担起举足轻重的任务和责任。

量子计算现在有实际应用了吗?

近年来,沿着各条技术路线,量子计算机原型机的研发都取得了长足进展。 尽管现阶段的量子计算机离真正实用化还有非常长的距离,但目前能达到的工程水平,已经大大超出了20年前科学家们最乐观的预测。 回顾过去的2022年,量子计算原型机领域涌现了不少新的发展成果,可谓是百花齐放、百鸟争鸣。

其中超导量子计算机路线最为耀眼,一如既往的领跑。 目前国内外的科技公司大都选择了超导路线进行长期布局和投入,在2022年均有不俗的成绩单。 IBM如期发布其433量子比特的量子计算芯片,为目前全球超导方向的最高水平,预计2023年将达到1000量子比特。 Google则更关注量子比特的质量,在量子纠错方面取得了持续的进展。

离子阱路线的特点是比特的相干时间特别长,所以可以制备保真度很高的量子逻辑门 (有点类似芯片上由晶体管组成的逻辑门) ,因而门保真度非常高。 尽管离子阱量子计算机在比特数提升方面面临的困难较多 (~20比特) ,但其独特的优势可通过前面讨论过的指标量子体积 (QV) 体现出来。 2023年2月,领军企业Quantinuum宣布基于其H1系列量子芯片,量子体积可达到32768 (2的15次方) ,创造新纪录。

光量子计算路线的原型机,一直是展示量子计算优越性的重要载体。 2022年6月,Xanadu基于其可编程光量子原型机,完成高斯玻色采样实验,再次展示了量子计算优越性。 中性原子路线则是2022年技术发展版图中的黑马。 2022年9月,法国Pasqal 宣布推出324个原子 (量子比特) 的量子处理器。 但其在工程层面的可用性还有待验证。 半导体量子计算路线也在2022年迎难而上,取得了不少进展。 Intel公司在2022年10月刷新了硅自旋量子比特数量,达到12个,同时芯片生产的良率高达95%,是往商业化迈出的关键一步。

既然量子计算原型机已经取得了如此多的进展,那么量子计算机现在是否有一些实际的可落地的应用了呢? 事实上,目前离量子计算机真正产生商业化应用,仍然有很长一段距离。 整体看,目前的量子计算原型机处于量子计算发展的初期阶段,仍然处于在量子计算领域叫做NISQ (Noisy Intermediate-Scale Quantum) 的时代。 要达成运行类似Shor算法这类标志性的量子算法和应用,仍需大量科研工作者努力攻坚,实现量子纠错,以及实现百万量级的量子比特相干操纵。 这个过程,普遍预测至少还需要10-15年时间的科研创新和工程技术积累。

那么NISQ时代的量子计算机就一无是处了么? 并非如此。 通过量子错误缓解、经典-量子混合等方案,科学家们也非常积极地在挖掘现阶段量子计算原型机的应用潜力,用于探索解决包括金融、化工、生物、医药、航空和人工智能等领域问题的可能性。

金融领域的典型应用场景包括投资组合优化、高频 (量化) 交易以及诈欺侦测等。 化工领域典型应用场景包括化学工业与催化剂设计。 航空领域,目标是利用量子算法帮助城市空中交通开发更多飞行路线、改善铁路交通线路的重新调度等。 人工智能领域,目标是利用量子算法加快机器人的学习时间、使用最新的机器学习技术。

量子计算,

更适合做模拟仿真吗?

量子计算能够比经典计算机更快地模拟量子力学系统的演化,这确实是量子信息科学前驱费曼当初提出量子计算想法的最初动机。 而使用量子计算机模拟量子系统,目前也被认为是量子计算最有前途的应用领域之一,并且可能是具有工业相关性的首批领域之一。

我们从材料科学、药物发现和蛋白质折叠三个例子来了解下。

量子计算能够有效地模拟量子演化,在材料科学中具有重要的应用。 例如材料化学模拟中,一旦自旋数大于大约 100,某些磁性模型就完全无法在经典计算机上进行模拟。 但是,据估计,使用具有 50 万量子比特的量子计算机可以在大约一个小时内模拟此类系统。 对于更复杂的系统,所需的量子比特资源可能更多。 但较传统计算方法,量子计算机的引入大大扩展了可探索的科学问题边界,未来有望应用于新颖特性材料的开发工作中。

药物发现的应用也是一个活跃的领域。 原则上,量子计算机可以准确模拟使用传统计算方法根本无法模拟的小药物分子的特性。 在这一点上,可以说量子计算机是占了优势。 然而,该优势是否大到足以在实践中对药物开发公司有用,目前仍在积极研究之中。

例如,如果一个分子根本无法使用经典计算机建模,但可以使用数百万个量子位在几个月内建模,这是否具有实际优势? 如果这种药物可以治愈严重的疾病,那么在某种意义上确实是一种优势。 量子硬件和算法也有可能改进到计算过程所消耗的时间和量子比特要求明显减少的程度。

量子计算也被研究用于对蛋白质等较大分子折叠的方式进行建模,这是一个众所周知的难以在经典计算机上解决的问题,即使使用 AlphFold 等机器学习领域的突破性技术也是如此。 同样,众所周知,这是量子计算机在理论上具有优势的领域,尽管实际优势的问题类似于小分子的情况。

目前国内外有哪些

公司和机构在做量子计算?

据麦肯锡《量子科技观察》的统计,目前国内外从事量子计算的企业和机构总数已经超过450家,分别在量子芯片、量子计算机系统、量子算法、量子软件开发工具、量子应用软件、量子云平台等方面投入研究和研发。 从事量子计算的企业和机构,可以大致分为4类: 头部信息与科技企业,国家级科研机构,初创公司和科研院校。

头部信息与科技企业,如IBM、谷歌、微软、英特尔、霍尼韦尔、英伟达、亚马逊、日立、NEC、阿里巴巴、华为、百度、腾讯等;

国家级科研机构,如美国的费米国家实验室和阿贡国家实验室,国内的中科院量子信息与量子科技创新研究院,等;

初创企业,大都是在2015年以后成立,比较有代表性的有D-Wave、Rigetti、Xanadu、IonQ、Quantinuun、本源量子、国盾量子等;

科研院校,如MIT麻省理工大学、哈佛大学、马克思普朗克学会、中国科学技术大学、东京大学、剑桥大学等等。

量子计算在实际应用前,还有

哪些工作要做? 怎么 才能

加快实现实际应用?

量子计算机在实际应用之前,还有很长的路要走。

从系统角度看,硬件方面,要提高量子比特数量和质量,提升量子纠错技术和操控观测技术水平,还要完成量子计算机制造工艺标准化,运行成本优化,运行能效优化; 软件方面,需要研发具有实际应用价值的量子算法,以及量子应用软件开发; 而理论方面,还要完成计算优越性的严谨数学证明、经济价值的大量实验和科学论证,等等。

从代际角度看,量子计算机还要经历“含噪声中等量子规模量子计算机”的NISQ时代,最终达到具备足够量子数量和质量的“容错量子计算机”FTQC时代。

图源: 信息通信技术与政策2020年第七期,量子计算技术产业发展现状与应用分析

从量子计算机研发的整体来看,想加快实现量子计算机的实际应用,除了更加坚定地研发、实践和反思、砥砺前行以外,似乎并没有什么捷径。 古训道: “不积小河,无以成江海。 不积跬步,无以至千里。 ”科技的研发和应用,急不得。

尤其对于量子计算等前沿探索性科技来说,更加需要科技界和工业界长期持续的合作研究和实验,甚至是反复的试错。 经典计算机技术的成熟和普及,也历经了40年; 量子计算机的研发,才开始了20年,并不算长。

以 IBM为例,IBM开展量子计算研发已有12年,是最早投入研发量子计算机的前驱企业之一。 2011年,IBM便开始进行量子计算机理论和实验研究; 2016年,IBM首次将量子处理器放在云上提供实验服务; 2020年,IBM在投入量子计算研发10年后,公布了自己从2019-2023年的研发路线图,更加笃定地前进着; 2022年,IBM更新了自己的路线图至2025年,并调整了2022年以后的技术路线。

可以看出,IBM很可能是在大量的实验、试错甚至是商业化考虑后,才实现了技术更新; 令人欣慰的是,自2020年以后,IBM一直坚定履行着自己公布的路线图和里程碑计划,不断为量子计算机技术的发展做出关键的贡献。 2022年12月,IBM更是如期交付了可以制备433个量子比特的Osprey超导量子芯片,超导量子计算机的研发向前迈出了坚实的一步。

又如谷歌,也是在2015年前便开始投入量子计算机的研究。 到现在的近8年时间里,行业乃至整个社会,对于量子计算机的认识在不断增强,甚至不时出现过度炒作的现象,很多人甚至认为量子计算机会在几年内就可以商用了。 而直到今年,也就是2023年2月,谷歌才在《自然》杂志上发布了自己在量子纠错领域的进展,初步通过严谨的科学实验证明,量子纠错确实可以改进量子计算的准确性,而这才仅仅是谷歌实现可用量子计算机的第二个步骤。 距谷歌所规划的、2029年实现真正商用的量子计算机,还有相当一段距离。

从当前量子计算机所处的NISQ时代来看,在现有量子计算机硬件的条件下,找到更多兼具计算优越性和实际经济价值的算法、以及面向实际应用场景的量子应用软件,被认为是当前加速量子计算实际应用的重要思路。

以量子算法为例,为了做到这一点,一方面需要学术界和产业界一起配合,在材料,制药、金融、物理等真实场景中,不断实践如何合理地探索和部署量子算法,最终达到在某些场景中超越经典计算的能力水平。 另一方面,在这个阶段,更多部署对公众开放的量子计算机软硬件平台,可以加速产业界开发、部署和测试量子算法,快速筛选出潜在有价值的应用。 而这个过程也将反哺促进量子硬件和软件应用的发展。

量子计算,是划时代的硬核科技,有望成为构筑未来算力、重塑未来世界的重要前沿科学技术。 随着国内外对量子计算机研发的持续投入,我们将跨越NISQ时代,进入FTQC时代,并进一步迎来兼具计算优越性和实际经济价值的量子算法与应用的大量涌现。 我们对未来充满期待。

而对于当下,我们仍需理性的乐观,客观理解量子计算机,并充分理解它从技术研发到实际应用的历程。 更重要的,量子计算领域的发展,需要国内外量子计算领域的企业、高校、研究机构等各方更加积极合作,脚踏实地地把研发工作做好,一步步解决其中的各种科学和工程挑战。

0 人点赞