量子力学是20世纪初成熟的理论,一个多世纪以来一直令科学家们感到惊讶、好奇和困惑。尽管该理论具有反直觉的性质,但它却以优异的成绩通过了实验测试,不断揭示出一个与我们的日常经验相去甚远的世界。
时至今日,科学家们仍然忙于操纵和理解量子世界——一个往往不按常理出牌的领域。
2023年,科学头条旋风般地席卷了我们的屏幕。在科学界又一个辉煌的年份里,量子计算最基本的硬件——量子比特,取得了令人瞩目的进展;而且,至关重要的是,研究人员在量子纠错方面也取得了进展,而量子纠错仍然是最难解决的问题之一。
一年的结束和下一年的开始似乎总能带来一种反思。一年的更替标志着时间的流逝,是人生中值得尊敬和尊敬的里程碑。
今年与去年有什么不同?
是否完成了年初设定的一些目标?
在科学领域,创新的步伐从未放缓,不论是哪一年,也不论受到何种经济、社会、战争影响。当我们回顾过往,让我们来看看科学家们在今年取得的一些专业成就。
这份名单并不全面,只是阐述了光子盒团队根据技术突破、市场反响、商业影响等因素,整理并列举的2023年年度十大科技进展(排名不分先后)。
科学家们正在探索未来大规模量子计算的各种平台。在主要的竞争者中,那些将量子比特捕获在离子中的平台因其低误差运行而脱颖而出。然而,将这些平台扩展到公用事业规模量子计算所需的数百万量子比特,是一项艰巨的任务。
今年5月,科罗拉多州Quantinuum公司的研究团队描述了一种令人印象深刻的新型阱离子量子计算机——Quantinuum System Model H2,在这种计算机中,他们能够在不增加错误率的情况下增加量子比特的数量(从20个增加到32个),并且,所有32个量子比特都是全局纠缠的。同时,H2推出时的量子体积也达到了创纪录的65536。
当时,据Quantinuum声称,H2是有史以来最精确的量子计算机(更多细节,点击阅读“终于,霍尼韦尔创造「拓扑量子态」”)。
官网介绍:
https://www.quantinuum.com/hardware/h2
半年之后,在2023年量子峰会上,IBM在会上发布了尖端设备,包133量子比特的Heron量子处理单元(QPU)——这是IBM公司首款公用事业级量子处理器,也是IBM进入量子处理单元大规模访问时代的入口。
IBM认为,Heron的设计最能满足新产生的对量子计算芯片的需求,这种芯片实际上处于人类计算能力的最前沿:能够提供经典计算系统所不能提供的功能(在某些特定领域)。这就是IBM将这一新阶段称为“以量子为中心的超级计算”的含义(更多细节,点击阅读“最高性能、最低错误率!一年沉寂,IBM王者归来”)。
同时,IBM还设法在其实验性芯片Condor中实现了全部1000个约瑟夫森结:不过,这种千量子比特光环产品将永远不会作为产品面世。它正在实验室内运行,IBM可以证明Condor产生了对计算有用的量子比特。
与Condor相比,Heron能够以更易于处理和规模化的方式提供有用的量子计算,这意味着一个只能留在原型机的殿堂里,而另一个则是第一个真正可以大规模使用有用量子计算的候选者
现在还没有必要生产数百个QPU,因为实用性还不存在。IBM过去路线图中的“Canary”、“Falcon”和“Eagle”从来都不是为了开创规模制造时代。它们只是原型、科学仪器、探索;是通往实用量子计算道路上的概念验证。我们不知道有用性会从哪里开始出现。
但现在,我们知道了——因为我们已经达到了。
IBM承诺将迎来有用的、可大规模生产的、可大规模访问的量子计算时代。
但现在,规模是个问题。与其他量子比特方法相比,无论是拓扑量子计算方法、基于氧空穴的离子阱,还是其他完全不同的架构(如通量铵量子比特),安装量子系统的成本效益如何?有了有用的Heron QPU,我们能改进多少事情?有多少扇紧锁的门已经打开?现在仍然不得而知。
一些量子比特技术很可能仍将进入量产阶段。即便如此,我们也可以放心,在人类智慧的道路上,失败的实验比比皆是,比如英特尔公司最近夭折的Itanium,或者AMD公司在Bulldozer中对x86计算采用的不合时宜的方法。
我们很难预见量子技术的未来会走向何方,也很难说它是否与IBM的路线图如出一辙。然而,无论是对IBM本身还是整个技术领域来说,所有的路线图都是一幅永不干涸的油画。
当今前景广阔的量子比特技术必须在性能、实用性、易操作性和成本、质量和可扩展性等方面回答实际问题,突破似乎每天都在发生,而科学的事实是,我们越早提出问题,潜力就越大。
2月22日,谷歌量子AI团队在《自然》上正式发表论文《通过扩展表面码逻辑量子比特来减少量子错误》(Suppressing quantum erros by scaling a surface code logical qubit),证明了将多个量子比特分组合成为一个逻辑量子比特的纠错方法可以提供更低的容错率(更多细节,点击阅读“剑指百万量子比特,谷歌首次突破纠错盈亏平衡点”)。
论文链接:
https://www.nature.com/articles/s41586-022-05434-1
这是量子计算机道路上一个新的里程碑:以往的纠错研究随着比特数的增加,错误率会提高,都是“越纠越错”,而这次谷歌首次实现了“越纠越对”。也就是说,突破了量子纠错的盈亏平衡点。
论文作者之一哈特穆特·内万(Hartmut Nevan)博士解释说,谷歌量子人工智能团队的目标是打造一台拥有约一百万量子比特的机器,但要发挥作用,量子比特必须能够参与大量算法步骤。
“实现这一目标的唯一途径是引入量子纠错,我们的团队首次在实践中证明,受表面代码纠错保护的量子比特确实可以按比例放大,以达到更低的错误率。”
这是量子计算“万里长征”中的重要转折点,为实现通用计算所需的逻辑错误率的指出了全新途径。
量子纠错(QEC)旨在通过利用希尔伯特空间(Hilbert space)的冗余来保护逻辑量子比特不受噪声影响,这使得错误可以被实时检测和纠正。在大多数QEC编码中,逻辑量子比特被编码为一些离散的变量,例如光子数,这样在处理后可以毫不含糊地提取编码的量子信息。
在过去的十年中,基于各种离散变量编码方案的重复性的QEC已经被证明了。然而,将这样编码的逻辑量子比特的寿命延长到超过最佳可用的物理量子比特仍然是难以实现的,这代表了判断QEC实际效用的一个平衡点。
3月22日,南方科大团队在俞大鹏院士的带领下,深圳量子研究院超导实验室的助理研究员徐源课题组联合福州大学郑仕标教授、清华大学孙麓岩教授等团队攻坚克难,在基于超导量子线路系统的量子纠错领域一举取得了突破性重大实验进展:团队通过对微波腔中的离散变量光子量子比特进行实时反馈校正,证明了超过QEC的盈亏平衡点。
论文链接:
https://www.nature.com/articles/s41586-023-05782-6
这也是国际上首次通过主动的重复错误探测和纠错过程实现延长量子信息的存储时间超越盈亏平衡点,具有里程碑式的重要意义(更多细节,点击阅读“Nature:深圳量子研究院取得国际首例「量子纠错」重大突破!”)。
纠错是几十年来一直困扰量子计算研究的问题。12月,来自哈佛大学、麻省理工学院和其他顶尖机构的研究人员表示,他们已经找到了一种改进纠错的方法,这可能会提前我们需要抗量子密码学的时间。
多年来,我们经常听到这样的说法:“量子即将到来”。量子计算让人想起《权力的游戏》中的“凛冬将至”,就像夜王和异鬼一样,它常常让专业人士感到恐惧。
尽管量子计算机已经出现了几十年,但它们还没有真正到来。然而,根据最近发表在《自然》杂志上的一篇论文,未来的现实可能会比预期更快发生变化。参与美国国防部高级研究计划局(DARPA)“含噪声中等规模量子器件优化”(ONISQ)计划的研究人员首次开发出了一种使用逻辑量子比特运行的量子电路:它拥有有史以来数量最多(48个)的逻辑量子比特,该处理器最多可运行280个物理量子比特(更多细节,点击阅读“开创容错量子计算新时代!全球首款逻辑量子比特电路实现无差错计算”)。
逻辑量子比特比基于物理量子比特的系统更可控,能更好地纠正量子计算中的错误。该团队能够创建“量子电路”,其纠错效率远高于其他技术:有可能克服实用量子计算机的最大障碍。据测试,这比IBM希望在其下一代芯片中实现的效果要好20倍,比当前技术试图达到的1,000 比1的比例要高效200倍。
科学家就不需要几千、几十万、几百万个物理量子比特来纠错了;如果这种方法奏效,速度将大大加快,令人惊叹。
如果未来其他研究人员能够复制并发展他们的研究,这就意味着量子计算机可能会比预期更早出现在我们的生活中——不知道要早多少。
论文链接:
https://www.nature.com/articles/s41586-023-06927-3
在2月8日发表在《自然·通讯》上的研究论文中,萨塞克斯大学(University of Sussex)和Universal Quantum的科学家们展示了他们使用称之为”UQConnect"的新技术,利用电场链路(electric field links),使量子比特以前所未有的速度和精度从一个量子计算微芯片模块移动到另一个。
最终,该团队成功地传输了量子比特,成功率为99.999993%,连接率为每秒2424,这两个数字都是世界纪录,比以前的解决方案要高几个数量级。
在以创世界纪录的速度连接两个模块的同时,科学家们还证实了量子比特的量子特性在传输过程中没有受到影响:例如,量子比特的叠加态。研究人员表示,这表明原则上可以将芯片组合在一起,从而制造出更强大的量子计算机(更多细节,点击阅读“99.999993%!量子比特的传输速度和精度双双创世界纪录”)。
离子阱的微芯片模块
论文链接:
https://www.nature.com/articles/s41467-022-35285-3
3月21日晚上11点,伴随着英伟达CEO黄仁勋的演讲,GTC 2023盛会正式展开(更多细节,点击阅读“英伟达2023 | 量子、AI、芯片......未来已来!”)。
此次,英伟达与以色列公司Quantum Machines共同构建的新系统为从事高性能和低延迟量子经典计算的研究人员提供了一个革命性的新架构。
作为全球首个GPU加速的量子计算系统,NVIDIA DGX Quantum将全球最强大的加速计算平台(由NVIDIA Grace Hopper超级芯片和CUDA Quantum开源编程模型实现)与全球最先进的量子控制平台OPX(由Quantum Machines提供)相结合。
这种组合使研究人员能够建立异常强大的应用,将量子计算与最先进的经典计算相结合,实现校准、控制、量子纠错和混合算法。
DGX Quantum的核心是一个由PCIe连接到量子机OPX+的NVIDIA Grace Hopper系统,实现了GPU和量子处理单元(QPU)之间的亚微秒级延迟。
DGX Quantum还为开发者配备了英伟达混合GPU-Quantum编程模型——CUDA Quantum,这是一个强大的统一软件栈,现在已经开放源代码了。CUDA Quantum是一个混合型量子-经典计算平台,能够在一个系统中整合和编程QPU、GPU和CPU。
新平台以CUDA命名,CUDA是大多数AI开发人员用来访问英伟达图形处理单元 (GPU) 的软件,它为英伟达芯片带来了巨大的竞争优势;同时,这也是首个使用流行的经典计算机编码语言C++和Python构建量子算法的平台。该程序将有助于在量子计算机和经典计算机上运行算法,具体取决于哪个系统在解决问题方面最有效。
迄今为止,英伟达的CUDA Quantum社区已经集成了众多著名合作伙伴:包括量子硬件公司Anyon Systems、Atom Computing、IonQ、ORCA Computing、Classiq、Terra Quantum、Oxford Quantum Circuits和QuEra;量子软件公司Agnostiq和QMware;以及超级计算中心国家高级工业科学和技术研究所、信息技术科学中心(CSC)和国家超级计算应用中心(NCSA)等等。
量子计算具有非凡的计算能力,被学术界和工业界广泛认为是释放提高计算能力潜力的关键。目前,各种量子计算硬件技术,如超导、离子阱、光子量子和中性原子系统等,都在早期阶段迅速发展。
然而,要真正推动这一产业的蓬勃发展,仅仅依靠技术突破是远远不够的。我们需要一个更全面的生态系统,将深入研究与实际应用相结合,从理论到商业化,从科学研究到商业活动。如何构建这样一个系统呢?
一方面,下游用户必须根据自己的实际需求,以具体的方向和技术路线图推动研发。同时,用户应在真实的量子硬件上测试和优化算法,以实现实际效益的最大化。另一方面,由于量子计算需要较高的技术壁垒和大量资金投入,许多研究量子算法的高校和企业往往难以获得真正的量子计算资源。
因此,迫切需要一种开放共享的机制,将研究与应用工作紧密联系起来。为了满足这些需求,量子计算云平台应运而生。
通过量子云平台,用户可以将自己开发的量子程序上传到后端的量子计算机或量子虚拟机上进行计算处理并获得结果。这种解决方案让用户无需昂贵的硬件和维护就能获得量子计算能力,让更多人可以更方便、更经济地使用量子计算。
目前全球约有21家公司开放了量子计算云平台,包括IBM的IBM Quantum Experience、谷歌云、微软的Azure Quantum、亚马逊AWS的Braket、D-Wave的Leap、Rigetti的量子云服务、Xanadu的Xanadu、Strangeworks的Strawberry Fields、本源量子的云平台、国盾量子的量子计算云平台、华为的HiQ、?中电信量子集团的“天衍”等。
今年多家公司也在开发量子计算云平台方面取得了重大进展。例如,2023年3月,PASQAL宣布推出Quantum Discovery——企业级中性原子量子计算优势的首个云平台。5月,北京量子信息科学研究院发布了新一代量子计算云平台,并将其命名为“量子未来-QUAFU”。目前该量子计算云平台已上线三个超导量子芯片,分别有136、18和10个量子比特,供科研人员自主选择,在云端开展研究工作,完成复杂的计算任务,大众也能亲身体验微秒级的量子计算速度,还可以尝试编写“量子软件”。
这些云平台在后端硬件、模拟器和定价结构方面呈现出多样性,有些已经在材料科学、金融、制造、医疗保健、网络安全、人工智能、教育、娱乐、农业等多个领域展示了实际应用。
——这些都反映了量子计算产业商业化的动态趋势(更多细节,点击阅读“中国最大规模量子计算云平台重磅发布!”)。
7月,来自中国科学技术大学等单位的研究人员成功实现51个超导量子比特簇态制备和验证,刷新了所有量子系统中真纠缠比特数目的世界纪录。
该工作将各个量子系统中真纠缠比特数目的纪录由原先的24个大幅突破至51个,充分展示了超导量子计算体系优异的可扩展性,对于多体量子纠缠研究、大规模量子算法实现以及基于测量的量子计算具有重要意义。
簇态制备和测量过程
利用“祖冲之二号”完成的51比特一维簇态制备的线路及量子态保真度结果
论文链接:
https://www.nature.com/articles/s41586-023-06195-1
研究团队在前期构建的“祖冲之二号”超导量子计算原型机的基础上,进一步将并行多比特量子门的保真度提高到99.05%、读取精度提高到95.09%,并结合研究团队所提出的大规模量子态保真度验证判定方案,成功实现了51比特簇态制备和验证。
最终51比特一维簇态保真度达到0.637±0.030,超过0.5纠缠判定阈值13个标准差。这一结果将各个量子系统中真纠缠比特数目的纪录由原先的24个大幅突破至51个,充分展示了超导量子计算体系优异的可扩展性。
在此基础上,研究团队通过结合基于测量的变分量子本征求解器,开展了对于小规模的扰动平面码的本征能量的求解,首次实现了基于测量的变分量子算法,为基于测量的量子计算方案走向实用奠定了基础。
如今,基于捕获离子的量子中继器可将纠缠的电信波长光子传输50千米。
论文链接:
https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.130.213601
在过去的半个世纪里,通信网络改变了我们的社会,我们几乎无法想象没有通信网络的日常生活。量子技术这一新兴领域的最新进展让科学家们对在网络中连接量子设备的可能性感到振奋。远距离量子通信预示着经典网络无法实现的功能。
为了充分利用纠缠和其他量子效应,量子网络在单光子层面交换信号。因此,光纤衰减是这些系统的主要误差来源。然而,光子损耗可以通过一组称为量子中继器的中间网络节点来弥补,这些节点可以在遥远的网络节点之间建立直接的纠缠连接。2021年,一种基于金刚石中氮空位中心的量子中继器实现了两个相距32米的网络节点之间的纠缠。
5月22日,奥地利因斯布鲁克大学(University of Innsbruck)和法国巴黎萨克雷大学(University of Paris-Saclay)的本·兰尼恩(Ben Lanyon)及其同事建造了一个量子中继器,并利用它通过标准电信光纤将量子信息传输了50千米——这个距离与现实世界中实际量子网络所需的距离相当,从而在一个系统中展示了远距离量子网络的所有关键功能。
研究小组利用一对捕获的钙-40离子创建了量子中继器,这些离子在激光脉冲照射下会发出光子。每个光子都与其“母体”离子纠缠在一起,然后被转换成电信波长,并通过25千米长的光纤分别发送出去。
最后,中继器交换两个离子上的纠缠,使两个纠缠光子相距50公里——这大致是创建具有多个节点的大规模网络所需的距离。
今年4月,伦敦帝国理工学院的罗曼·蒂罗尔(Romain Tirole)和里卡多·萨皮恩扎(Riccardo Sapienza)及其同事演示了杨氏双缝时间干涉。
托马斯·杨在19世纪观测到的光波干涉是物理学史上最具标志性的实验之一,为光波理论提供了基础支持。虽然该实验和其他类似实验涉及光在空间通过一对窄缝的衍射,但英国和其他国家的研究人员发现,在时间上使用双缝也可以实现等效效果。
时间上的类似物涉及固定的动量但变化的频率。在一种材料中,两个狭缝一个接一个地迅速出现,然后又迅速消失,这应该会使进入的波保持其在空间中的路径,但在频率上会分散开来。
研究人员通过连续两次打开和关闭半导体镜面的反射率,并记录从镜面反弹的光的频谱干涉条纹,实现了这一目的。他们发现,干涉发生在不同频率的波之间,而不是不同的空间位置(更多细节,点击阅读《自然·物理学》:英国团队揭示新维度的“量子光”)。
论文链接:
https://www.nature.com/articles/s41567-023-01993-w
这项工作可以有多种应用,如用于信号处理和通信的光学开关或光学计算。
近年来,世界上许多物理学家推出了原子钟,这是一种基于原子量子态的时间测量系统。这些时钟可以有许多有价值的应用,例如用于开发卫星和导航系统。
最近,一些研究人员也在探索开发分子钟的可能性,这种系统与原子钟类似,但以简单的分子为基础。
分子可以旋转、振动和扭曲。每个自由度都会产生一个量化能级的阶梯,其间距通常占据太赫兹频段。由于阶梯的阶数很小,分子对内部和外部场的探测非常灵敏。但是,这种灵敏度使得构建工作探针所需的两项主要操作变得复杂:冷却和捕获。
今年3月,经过四年对实验的不断改进,研究小组已经将精确度提高了100倍,该分子钟可作为太赫兹频率标准和研究新物理学的平台。
实验团队制造的分子钟基于二原子分子Sr2,其结构类似于由弹簧连接的两个小球。该时钟特别利用这种分子的振动模式作为精确的频率参考,从而使其能够记录时间。
科学家通过一系列测试评估了分子钟的精度,测量了所谓的系统不确定性。他们发现,他们提出的设计极大地减少了误差来源,他们的时钟达到了4.6×10-14的总系统不确定性,表现出了显著的高精度。
研究人员使用的超冷分子分解成原子的图像
论文链接:
https://journals.aps.org/prx/abstract/10.1103/PhysRevX.13.011047
“我们最近的工作为分子光谱学的精度设定了基准,观测到的峰值锐度测量值(或其品质因数)为3万亿。它还揭示了限制这一精确度的效应,特别是分子被捕获在其中时会因光的散射而最终消失。这激励我们寻求改进光学捕获策略。”
以上就是我们总结出来的2023年量子科技十大进展,当然,这些进步并不意味着我们已经完成了对宇宙最小尺度的理解。我们相信,下一次年度的科学探索可能会带来更多惊喜。
参考链接(上下滑动查看更多):
[1]https://bnnbreaking.com/breaking-news/education/quantum-mechanics-a-century-of-predictions-and-puzzles/
[2]https://physicsworld.com/a/physics-world-reveals-its-top-10-breakthroughs-of-the-year-for-2023/
[3]https://www.smithsonianmag.com/science-nature/the-ten-most-significant-science-stories-of-2023-180983484/
[4]https://www.laboratoryequipment.com/608790-10-Scientific-Discoveries-in-2023/
[5]https://www.nytimes.com/2023/11/24/opinion/thanksgiving-science-technology.html
[6]https://knowablemagazine.org/content/article/society/2023/top-scientific-news-and-breakthroughs-of-2023
[7]https://www.nationalgeographic.com/premium/article/11-astonishing-scientific-discoveries-2023
[8]https://www.quantinuum.com/news/quantinuum-launches-the-most-benchmarked-quantum-computer-in-the-world-and-publishes-all-the-data
[9]https://physics.aps.org/articles/v16/209
[10]https://www.tomshardware.com/tech-industry/quantum-computing/ibm-demonstrates-useful-quantum-computing-within-133-qubit-heron-announces-entry-into-quantum-centric-supercomputing-era
[11]https://quantumai.google/qecmilestone
[12]https://www.science.org/content/article/quantum-computers-take-key-step-toward-curbing-errors
[13]https://www.thesslstore.com/blog/quantum-computing-just-took-a-big-step-forward/
[14]http://www.ce.cn/xwzx/gnsz/gdxw/202312/18/t20231218_38832854.shtml
[15]https://phys.org/news/2023-04-highly-precise-terahertz-molecular-clock.html