2019年量子计算发展白皮书(上)

  当前,人类对量子信息技术的研究与应用主要包括量子计算、量子通信和量子测量等。其中,量子计算是一种基于量子力学的、颠覆式的计算模式,具有远超经典计算的强大计算能力,将在化学反应计算、材料设计、药物合成、密码破译、大数据分析和机器学习、军事气象等领域产生颠覆性影响。

  量子计算发展综述量子计算的内涵

  量子信息科学的基本概述。量子信息科学是量子物理与信息科学交叉的新生学科,其物理基础是量子力学。量子是构成物质的基本单元,是不可分割的微观粒子的统称。量子力学就是研究和描述微观世界基本粒子结构、性质及相互作用的一门科学。量子信息技术就是基于量子力学,通过对光子、电子等微观粒子系统及其量子态进行人工观测和调控,借助量子叠加和量子纠缠等独特物理现象,以经典理论无法实现的方式获取、传输和处理信息的一类技术。

  在量子信息技术中,包含量子比特、量子叠加和量子纠缠等几个基本概念:一是量子比特。比特是计算机技术中信息量的基本度量单位,量子比特则是量子计算中的最小信息单位。一个量子比特可以表示0、1或0和1的叠加,因此其搭载的信息量远超只能表示0或1的经典比特。二是量子疊加。指一个量子系统可以处在不同量子态的叠加态上。在量子系统中,量子态是指微观粒子所处的一系列不连续的恒稳运动状态。在无外界观测干扰时,量子系统可处于一系列量子态叠加态上,也即是著名的“薛定愕的猫”。三是量子纠缠。指微观粒子在由两个或两个以上粒子组成系统中相互影响的现象。在量子系统中,存在量子关联的多个粒子即使在空间上被分隔开,也能够相互影响运动状态,这是量子通信等的技术基础。

  当前,量子信息技术主要包括量子计算、量子通信和量子测量等三个技术领域。量子计算是基于量子态受控演化的一类计算技术。量子计算具有经典计算无法比拟的巨大信息携带和超强并行处理能力,有望成为未来几乎所有科技领域加速发展的“新引擎”。量子通信利用微观粒子的量子叠加态或量子纠缠效应等进行信息或密钥传输,主要包括量子隐形传态和量子密钥分发两类。量子通信可大幅提升通信的安全性,将对信息安全和通信网络等领域产生重大变革和影响。量子测量可基于微观粒子系统及其量子态的精密测量,完成被测系统物理量的执行变换和信息输出。量子测量主要包括时间基准、惯性测量、重力测量、磁场测量和目标识别等方向,其在测量精度、灵敏度和稳定性等方面比传统测量技术有明显优势。

  量子计算的基本原理与特征

  量子计算以量子比特为基本单元,通过量子态的受控演化实现数据的存储计算。量子计算机就是遵循量子力学规律,基于上述原理进行信息处理的一类物理装置。当前,量子计算机可大致分为三类:量子退火、嘈杂中型量子(NISQ)计算、容错型通用量子计算。

  一般而言,量子计算机的计算过程可以分为数据输入、初态制备、量子逻辑门操作、量子测算和数据输出等步骤。其中,量子逻辑门操作是一个幺正变换,这是一个可以人为控制的量子物理演化过程。对量子计算机的可用性而言,需要从量子比特数、长相干时间保护、高保真度量子操作等多个维度进行综合衡量。

  与经典计算相比,量子计算具有以下特点:

  一是并行计算能力更强。一般地,描述n个量子比特的量子计算机需要2n个系数数字,当n增大时所有状态所需数字很大。但由于量子叠加效应,量子计算过程中的么正变换可以对处于叠加态的所有分量同时进行操作(也即量子并行性)。因此,量子计算机可以同时进行多路并行运算,这也是量子计算机超强信息处理能力的源泉。

  二是能耗更低。当前,经典计算中运算速度遇到的一大瓶颈就是能耗问题对芯片集成度的制约。有研究表明,能耗产生于计算过程中的不可逆操作。直观而言,传统芯片的特征尺寸很小(数纳米)时,量子隧穿效应开始显著,电子受到的束缚减小,使得芯片功能降低、能耗提高,这即是传统摩尔定律面临失效的原因。因此,必须将不可逆操作改造为可逆操作,才能大大提高芯片的集成度。相较之下,量子计算中的幺正变换属于可逆操作,因而信息处理过程中的能耗较低,这有利于大幅提升芯片的集成度,进而提升量子计算机算力。

  量子计算的发展背景与历程

  传统计算技术供给不足成为量子计算重要驱动因素。当前,传统计算技术迭代提升面临瓶颈,而各领域算力需求则快速攀升。一方面,集成电路技术在材料和制程工艺方面越来越逼近物理极限,摩尔定律日渐趋缓,传统计算技术的发展面临体系性困局。冯·诺依曼架构数据读写瓶颈日益凸显,程序执行时处理器在程序计数器的指引下顺序读取指令和数据,带来高延迟、低带宽等问题。此外随着数据量的日益增加,传统云计算面临网络带宽压力、服务响应缓慢、安全与隐私隐患、资源利用率低等诸多挑战。另一方面,随着信息化社会的飞速发展,人类对信息处理能力的要求越来越高,低延时、低能耗、高性能的计算需求应运而生。多种学科的融合创新发展与复杂的人类活动催生了诸多新兴计算场景,亟待利用新的计算技术与模式进行分析与评估。例如,人工智能技术的导入,带来海量、非结构化数据存储与处理需求,同时对计算技术的解释性、推理能力以及举一反三能力等方面均具有较高需求。因此,传统计算领域供给不足与需求攀升之间的矛盾愈发突日出,这成为了驱动量子计算技术发展的重要因素之一。

  量子计算技术突破随着科技巨头介入而提速。基于量子力学的量子信息科学是上世纪最为重要的科学发现之一,自问世以来先后孕育出原子弹、激光、核磁共振等新技术。近年来,随着人类对微观粒子系统观测和调控能力的提升,利用量子力学中的叠加态和纠缠态等独特物理特性进行信息的采集、处理和传输己经成为可能。人类对微观粒子系统的探索从“探测时代”向“调控时代”迈进,量子信息科学因此迎来新一轮快速发展。在这一轮发展浪潮中,量子信息技术的突破点集中在量子计算、量子通信和量子测量等领域。其中,量子通信的技术难度相对较小,产业化进程也最快,目前人类己在积极探索基于卫星或光纤网络的长距离传输和广域组网应用。相比之下,量子计算尚未取得关键技术突破。然而,伴随着近年来国内外科技巨头的大力布局,量子计算的技术突破大大加速。例如,近十年内,在IBM、谷歌等的推动下,量子比特数量的增加速度明显加快。尤其在近五年内,由9位迅速提升至72位,实现了8倍提升。此外,围绕量子计算的产业生态也初具雏形,形成了科研机构、科技巨头、初创企业协力研发,各垂直领域企业纷纷布局的发展态势。

  量子计算正处于技术验证和原理样机研制阶段。迄今为止,量子计算的发展可分为三个阶段。一是20世纪90年代以前的理论探索时期。量子计算理论萌生于上世纪70年代,80年代处于基础理论探索阶段。1982年, Benioff提出量子计算机概念, Feynman也提出利用量子系统进行信息处理的设想。1985年, Deutsch算法首次验证了量子计算并行性。二是20世纪90年代的编码算法研究时期。1994和1996年,Shor算法和Grover算法分别提出。前者是一种针对整数分解问题的量子算法,后者是一种数据库搜索算法。这两种量子算法在特定问题上展现出优于经典算法的巨大优势,引起了科学界对量子计算的真正重视。三是21世纪以来,随着科技企业积极布局,量子计算进入了技术验证和原理样机研制的阶段。2000年, DIVincenzo提出建造量子计算机的判据。此后,加拿大D-Wave公司率先推动量子计算机商业化,IBM、谷歌、微软等科技巨头也陆续开始布局量子计算。2018年,谷歌发布了72量子位超导量子计算处理器芯片。2019年,IBM发布最新IBM Q System One量子計算机,提出衡量量子计算进展的专用性能指标——量子体积,并据此提出了“量子摩尔定律”,即量子计算机的量子体积每年增加一倍。若该规律成立,则人类有望在 10 年内实现量子霸权。

  量子计算的应用展望

  当前,量子计算的产业化仍处于最初阶段。因此,在未来5~10 年内,倘若量子计算技术未能取得跨越式突破,则其市场规模将较为有限。据BCC Research预测,全球量子计算市场规模有望于2022 年超过1.5亿美元,2027年有望达到13亿美元。此外,据波士顿咨询报告,预计到2035年,全球市场规模将达到20亿美元。从中远期来看,若量子计算技术迭代速度超出预期,则2035年的市场规模可突破600亿美元,2050年则有望接近3000亿美元。相比之下,当前全球计算市场的总规模约为8000亿美元。

  量子计算具有经典计算技术难以企及的并行计算能力和信息携带量,有望成为满足未来计算需求、加速科技创新的新引擎。在可预期的未来,量子计算机不会完全取代经典计算机,但会依托其在并行计算、量子行为模拟等方面的独特优势,在算力需求极高的特定场景中发挥作用。例如,量子计算有望用于基础科研、化工、能源、材料、人工智能、信息安全、加密通信、太空探索等领域,对各国科技创新、产业发展乃至经济社会的各个方面带来颠覆性影响。

  从中短期来看,量子计算主要可在量子模拟、量子优化和量子增强人工智能等方面发挥作用。

  量子模拟。在传统计算中,由于难以精确求解方程,当前的计算化学方法严重依赖近似值。相比之下,量子计算所依赖的量子力学是自然界最基本的物理原理,因此量子计算天然适于模拟各类物理、化学过程,能够在更长时间范围内准确模拟分子行为,因此能够大幅提升建模精度,在生物药物、能源材料、化工材料等领域提升研发效率、缩短产品开发周期。例如,在生物医药领域,药物研发的前、中、后期都需要大量数据计算,尤其在中期环节,需要极高的计算能力以支撑分子性质模拟和药品功能设计。

  量子优化。优化问题需要从诸多解决方案中找到最优解,对传统计算而言,在大规模物流网络等复杂系统中,设计满足各种需求的最优路线的计算量很大。例如,对仅有数百个集散地的物流网络而言,而穷尽所有可能性,传统计算机需要数十亿年时间。量子计算则能大幅提升计算效率,从而在物流运输、航空旅行、交通管制、金融资产管理、网络基础设施等领域中提升运营效率、减少碳排放等。

  量子增强人工智能。人工智能对算力需求的一大特征即海量异构数据的并行计算,这也是传统CPU芯片难以胜任,从而导致GPU、FPGA、ASIC等芯片在人工智能领域大受欢迎的原因。如上文所述,量子计算的超强算力源自量子并行,因而其十分适于进行人工智能所需的并行计算。当前,量子计算将量子力学理论与计算机技已经开始用于提升机器学习在数据聚类等领域的能力。

  量子计算技术与发展路线图

  量子芯片以及量子算法是研发量子计算机的两个关键技术环节。量子芯片即为量子计算机的物理实现与硬件系统,量子算法则是将量子计算效率最大化的软件系统。

  量子计算关键技术

  量子芯片。将量子力学理论与计算机技术相结合的概念由美国物理学家Feynman于1982年首次提出。3年后,英国牛津大学的Deutsch团队对量子计算机的概念进行了进一步阐述,并提出研究如何由量子逻辑门构成网络是实现通用量子计算机的核心。目前,量子计算的各类物理体系虽都取得了较大进展,但未来哪种物理体系最终可研制成通用量子计算机尚无定论。

  1.超导量子计算。超导量子计算利用超低温“冻结”粒子的运动进而实现粒子状态的控制,量子比特有超导相位、超导磁通和超导电荷三种形式。超导量子计算的核心单元是约瑟夫森结,约瑟夫森结是一种“超导体一绝缘体一超导体”的三层结构。利用超导约瑟夫森结来观测宏观量子现象最早由Leggett于1985年提出,随后研究人员在超导约瑟夫森结器件中陆续观测并实现了能级量子化、量子隧穿、量子态叠加、量子相干振荡等现象。

  超导量子计算是目前进展最快最好的一种固体量子计算实现方法。由于超导量子电路的能级结构可通过外加电磁信号进行调控,电路的设计定制的可控性强。同时,得益于基于现有的成熟集成电路工艺,超导量子电路具有多数量子物理体系难以比拟的可扩展性。但是在实现超导量子比特体系过程中,由于量子体系的不可封闭性,环境噪声、磁通型偏置噪声等大量不易操控的自由度导致耗散和退相干。此外,超导量子系统工作对物理环境要求极为苛刻(超低温)均是超导量子计算实现过程中不可避免的问题。

  目前谷歌、IBM、英特尔等企业均在积极开展超导量子比特实验研究。2018年3月3日,谷歌量子人工智能实验室发布狐尾松 (Bristlecone)量子处理器。该处理器可实现72个量子比特长度上的单比特门操纵,单量子比特门最佳保真度99.9 % ,双量子比特门的最佳保真度99.4%。

  2.半导体量子点。半导体量子点也是基于现有半导体工艺的一种量子计算物理实现方法。在平面半导体电子器件上制备出的单电子晶体管,其电子服从量子力学运动规律,电子自旋的向上和向下组成的系统可作为一个量子比特。根据电子的泡利不相容原理,通过自旋和电荷之间的关联,可以通过普通的电子开关(门)对电子自旋进行控制,完成包括单量子比特操作、两量子比特操作及结果的读出等在内的对电子自旋编码的量子比特的各种操作。

  半导体量子点体系具有良好的可扩展性,量子点的原子性质可以通过纳米加工技术和晶体生长技术来人为调控,比一般的量子体系更容易集成。此外,半导体量子点的制备可与现有半导体芯片工艺完全兼容,因而成熟的传统半导体工艺可为半导体量子点的技术实现与后续部署带来极大便利。但是半导体量子点体系受周围核自旋影响严重,面临退相干以及保真度不足两大挑战。

  技术进展方面,荷兰代尔夫特大学的Kouwenhoven团队于2004年在半导体器件上首次实现了自旋量子比特的制备。3年后,代尔夫特大学的Vanderspyen团队在同一块半导体量子点器件上实现了量子比特制备、量子逻辑门操作、量子相干与测量等自旋量子计算的全部基本要素。2014年新南威尔士大学获得了退相干时间120微秒、保真度99.6%的自旋量子比特。2017年,日本理化研究所在硅锗系统上获得了退相干时间达到20微秒、保真度超过99.9%的量子比特。2018年中国科技大学郭光灿院士团队制备了半导体六量子点芯片,并实现了三量子比特的Toffoli门操控,成为国际上首个在半导体量子点体系中实现的三量子比特逻辑门。

  3.离子阱量子计算。离子阱的技术原理是利用电荷与电磁场间的交互作用力牵制带电粒子体运动,并利用受限离子的基态和激发态组成的两个能级作为量子比特。尽管离子阱技术本身的发展可以追溯到1980年,但是利用离子阱技术实现量子计算由奥地利因斯布鲁克大学(Innsbruck)Blatt实验室的CirCa和Zoller于1995年首次提出。2003年,该实验了室实现利用失谐激光束照射和激光冷却控制非门,同年该实验室第一次成功地利用离子阱技术实现了Deutsch-Jozsa算法。

  离子阱量子计算具有量子比特品质高、相干时间较长以及量子比特的制备和读出效率较高三大特点。然而,离子阱技术目前仍面临四大难点:一是离子阱暂时难以储存多条离子链;二是由于外加激光强度、频率及相位的不稳定,且离子对电场噪声敏感导致的消相干问题;三是可扩展性差;四是体积庞大,小型化尚需时日。

  目前开展离子阱量子计算技术研究的有IonQ、NIST、ETH和SandiaNational Lab。IonQ于2018年12月11日公布了两个新型离子阱量子计算机,具有160个存储量子比特,可实现79个量子比特长度上的单比特门操纵,11比特长度上双比特操纵。保真度方面,单比特平均保真度99%,双比特平均保真度98%。

  4.光学量子计算。光学量子计算(OQC)是基于测量的量子计算方案,利用光子的偏振或其他自由度作为量子比特,光子是一种十分理想的量子比特的载体,以常用的量子光学手段即可实现量子操作。光学量子计算根据其物理架构分为两种: KLM光学量子计算以及团簇态光学量子计算。KLM光学量子计算仅使用单光子、线性光学和测量,允许通过和可扩展光学量子计算,目前己经实现了光子—光子之间的两量子位的逻辑操作。团簇态光学量子计算由一个高度纠缠的成为团簇态的多粒子态组成,与单量子测量和前馈相结合,实现可扩展的通用量子计算,具有降低整体复杂性和放宽测量过程的物理需求,以及物理资源的更有效利用等技术优势。

  由于光子与环境相互作用很小,光学量子计算具有相干时间长、操控手段简单、与光纤和集成光学技术的相容性,以及简单的资源可扩展性等优点。但也正是由于光子之间相互作用微乎其微,导致两量子比特之间的逻辑门操作难以实现。

  技术进展方面,目前中国研究团队已经在实验室产生了同时具备高系统效率(33%)、高纯度(97%)和高全同性(90%)的高品质单光子源和基于参量下转换的10光子纠缠。在此基础上,光学量子计算的基本操作(如概率性的控制逻辑门)和各种算法(大数分解算法、数据库搜索、线性方程组求解算法、机器学习、波色取样)的简单演示验证也己经实现。在光学量子计算可集成研究方面,麻省理工学院、牛津大学、布里斯托大学、维也纳大学、昆士兰大学等小组基于硅光子学、铌酸锂波导、二氧化硅波导等平台,通过刻蚀或激光直写等方式产生10个通道左右的量子线路用于少数光子数的原理性研究。单光子探测方面,美国国家技术标准局、荷兰代尔夫特大学等机构以及可以生产同时具备高探测效率(93%),高重复频率(150MHz)的超导纳米线单光子探测器。

  5.量子拓扑计算。拓扑量子计算建立在全新的计算思路之上,应用任意子的交换相位,交换过程的“编辫”程序实现量子计算的信息处理。拓扑学研究几何形象在几何元素的连续变形下保持变的性质。如果构成量子比特的元素是拓撲不变的,基于这些量子比特的运算结果也具有拓扑不变性。由此构造的量子计算对环境干扰、噪音、杂质有很大的抵抗能力。但拓扑量子计算尚停留在理论层面,实际上还未把这些理论付诸成器件化的现实。

  量子算法

  与传统计算机同理,为便于控制并使用通用量子计算机,可利用量子计算机程序设计语言作为人与量子计算机之间的传递信息的媒介。现有量子算法一般固化于专用量子计算设备中,如果需要改变量子算法就必须重新设计量子计算设备。因此,量子计算机程序设计语言将成为未来通用量子计算机算法实现过程中必不可少的系统软件。

  1.舒尔算法。1994年,美国麻省理工贝尔实验室数学家彼得·舒尔(Peter Shor)提出了一个针对整数分解问题的量子算法,即舒尔算法(Shor‘s Algorithm)。舒尔算法包含两个部分:一是将因子分解问题转化成周期问题,该部分可以用传统方式实现;二是使用量子手段来搜寻这个周期,这一部分是舒尔算法中体现量子加速的主要部分。

  大整数分解问题是数论中的经典困难问题,在舒尔算法提出之前,没有己知算法可以在多项式时间内分解大整数分解问题。著名的公钥密码体制RSA正是基于大整数分解问题的困难性来进行加密的。据微软研究院估计,破解2048比特强度的RSA密钥可能需要当今最快的经典计算机耗费10亿年以上的时间,而运行舒尔算法的量子计算机只需要不到100秒就可以完成。

  舒尔算法的提出,不仅对RSA密码体制构成了威胁,更让人们认识到,量子计算具有非常强大的计算与应用潜力。从而促使量子计算机的研究迈上一个新的台阶。

  2.格罗弗算法。1996年,同在麻省理工贝尔实验室的格罗弗提出了格罗弗搜索算法(Grover’s Algorithm),格罗弗算法的实现基于概率幅放大。与其他的量子算法相同,格罗弗算法亦是概率性的。该算法为数据库搜索算法,数据库相当于是一张存有未知函数的所有输出值的表,以对应的输入值为索引。

  量子计算的格罗弗搜索算法远超出了经典计算机的数据搜索速度,但不像其他的量子算法可能会比相应的经典算法有指数级的加快,格罗弗算法对许多计算问题的传统算法呈现平方加速。即便如此,加速程度也相当可观,格罗弗算法可以在大约264次迭代内穷举破解一个128比特的对称密钥,在大约2128次迭代内穷举破解一个256比特的密钥。

  量子计算的发展路线图

  虽然国际上量子计算各种物理实现的原理性验证发展迅速,都取得了较大进展,并且有加速现象,但国际上公认短期内无法实现量子通用计算机,量子计算发的发展预计将分为近期、中期与远期三个阶段。

  近期:量子霸权。量子霸权是指量子计算机拥有一项超越现有经典计算机的计算能力,则可称该量子计算机实现量子霸权。由于目前具体实现通用量子计算机仍尚有时日,但只需实现实用化的专属目的的量子计算机即可带来巨大的学术以及工业价值。随着量子计算物理体系研究进展不断突破,量子霸权的实现正日益临近,而称霸标准也己成为量子计算领域最为重要的问题之一,玻色采样即为一种针对光子(玻色子)系统的量子霸权测试案例。但量子霸权仅为技术研发初期的的一种特有概念形式,实现量子霸权离实现真正的量子计算机仍将有很大距离。

  中期:量子模拟机。量子模拟机利用可控的人造量子系统实现对复杂物理过程的高效量子模拟。目前业界主流的模拟方案有两类,一类是存储量子状态的所有振幅,此类模拟方案,基本都在超级计算机上实现,因为存储45比特的量子状态需要Petabyte量级的内存,在存储这么多数据的同时对该量子态进行操作并进行计算,需要不断地在不同的计算节点之间交换数据,这样的通信开销对于普通云服务是难以承受的。另一类对于任意振幅都可以迅速计算得到结果。任务拆分后可以将子任务十分均衡地分配到不同节点,极少的通信开销使得模拟器適配现在广泛提供服务的云计算平台。

  远期:通用量子计算机。通用量子计算机通过把物理量子比特编码成逻辑量子比特,实现通用的量子计算,最终在大数据处理、人工智能、密码破译等领域产生颠覆性影响。尽管在量子计算的某些领域己经取得了进展,但对于建造大型无计算错误的通用量子计算机,目前仍存在较多技术短板,尚无法预测其具体的商用时间。未来通用量子计算机并不会直接替代景点计算机,甚至可能需要经典计算机来控制它们进行操作,并实现量子误差计算修正。因此,通用量子计算机将成为与算机互补的特殊设备。

  冯晓辉 李雅琪 周斌 王翠林

……
关注读览天下微信, 100万篇深度好文, 等你来看……
阅读完整内容请先登录:
帐户:
密码: