首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >微软称在量子纠错领域取得大进展,量子超级计算机能在2033年问世?

微软称在量子纠错领域取得大进展,量子超级计算机能在2033年问世?

作者头像
数据猿
发布于 2024-04-15 04:52:27
发布于 2024-04-15 04:52:27
2750
举报
文章被收录于专栏:数据猿数据猿
大数据产业创新服务媒体

——聚焦数据 · 改变商业

自从物理学家费曼(Richard Feynman)在80年代首次提出了利用量子力学原理进行计算的概念,无数科学家就梦想着用量子计算重塑未来。可惜现实往往“磕磕绊绊”,40多年过去了,量子计算依然囿于实验室,难以真正落地应用。

然而,这一现状迎来了转机。周三,微软在官网发布了一系列博客文章和论文,宣布在量子纠错领域获得突破性进展,大幅推动了量子计算机的落地进度:

通过将微软的量子比特虚拟系统(qubit-virtualization system),错误诊断和改正手段(error diagnostics and correction),与Quantinuum公司的离子阱硬件(trapped-ion hardware)相结合,迄今为止最可靠的逻辑量子比特被创造出来。相较于单个物理量子比特,这种逻辑量子比特的错误率改善了800倍。

Credit: Microsoft

具体来说,仅利用30个物理量子比特,微软成功构建了4个高度可靠的逻辑量子比特。在14000次试验中,这4个逻辑量子比特运行始终平稳如初,未现任何错误。

这一突破之所以备受关注,是因为长期以来,管理和纠正量子误差一直是阻碍量子计算机真正落地的最大障碍。量子系统由于易受噪声和退相干现象的影响,极易导致量子态失常、计算出现错误。此外,不精确的量子门操作和测量过程也可能引入误差,使之逐步累积,影响最终结果的准确性。

因此,即便拥有再多量子比特,量子计算机也难以完全发挥其超强的并行处理能力,这就是为什么到目前为止,量子计算机仅用于研究和实验的主要原因。而微软和Quantinuum这一突破,正是为解决这一挑战迈出的关键一步。

那么微软是怎么做到的呢?

在量子计算机中,基本单位被称为“量子比特(quantum bit)”或“量子位(qubit)”。与传统计算机中只能代表0或1的最小数据单位“bit”不同,量子比特可以同时处于0和1的叠加态,让每个量子比特同时执行两个计算。

这是量子计算机拥有超越传统计算机的计算能力的关键所在:量子计算机中通过量子力学连接的量子比特越多,其计算能力就可以以指数方式增长。

量子计算机大约每千次操作就会出现一个错误,通常有两种方式来降低错误率:

1、提高单个物理量子比特及其上执行的操作的质量,其中包括最大限度地减少温度波动或电磁干扰等因素造成的外部噪音;利用不易退相干的先进材料;开发更精确的量子门操作等。

2、使用逻辑量子比特进行纠错,将多个物理量子比特组合成更可靠的虚拟量子比特。

此次突破主要通过第2种途径实现。微软仅使用30个物理量子比特就构建出了4个高度可靠的逻辑量子比特。相较于先前的研究,这种量子纠错策略所需的物理量子比特数量预期至少为1000个,因此这是一个巨大的飞跃。

“主动症状提取(Active Syndrome Extraction)”,一种微软新开发的,能够在不破坏逻辑量子比特的情况下进行诊断和纠正错误的方法,也在这次突破中发挥了重要作用。

测量量子态(如叠加态)的行为通常会破坏它。为了避免这种情况,“主动症状提取”并不关注量子比特的量子态,而是学习与噪声相关的量子比特细节。具备考虑噪声的能力可以让更长更复杂的量子计算顺利进行,而不会出现故障,同时也不会破坏逻辑量子比特。微软称它在2个逻辑量子比特上运行了多轮的“主动症状提取”。

微软展示了如何进行纠缠量子比特的准备工作(如下图)。 虚线内的部分是用于创建纠缠态的电路的粗略表示。A 和 B 代表可应用于状态每一半的测量值。 在没有错误的情况下,如果应用于每一半的测量类型相同,则一半的结果应与另一半的结果一致。

下图展示了纠缠的量子比特之间的差异(误差):通过比较一对量子比特中每个量子比特的图像可以发现差异,存在的任何差异都会以点的形式出现在每对量子比特的之间的图块上。物理量子比特对之间存在错误,第一排中间图块中的“小点”就证明了这一点。 相比之下,纠缠的逻辑量子比特之间不存在任何错误,从第二排中间的不存在“小点”的空白图块中可以看出。

Credit: Microsoft

微软迈入量子计算机发展的韧性阶段

微软报告称,最新的突破标志着其在量子计算机的第2个发展阶段中获得了先机,并计划在不久的将来在 Azure Quantum Elements 的私人预览版中提供这些功能。

我们先来回顾一下,7个月前微软战略任务和技术部门执行副总裁Jason Zander在LinkedIn上关于量子计算机发展的3个阶段的介绍:

第 1 级(Foundational-基础):这个阶段厂商都专注于增加和宣传一个虚荣的指标,即量子比特的数量,而忽略了保真度。保真度达到99%的NISQ系统只能用于量子计算研发,无助于解决现实问题。

第 2 级(Resilient-韧性):需要约 200 个以上的逻辑量子比特来进行一些基本的科学工作,这涉及使用逻辑量子比特来实施纠错技术。目前(即截至2023年8月)还没有供应商达到这个水平。

第 3 级(Scale-规模):要解决最困难的科学问题,必须拥有至少一百万次可靠的每秒量子运算 (rQOPS),且逻辑错误率只有万亿分之一。这涉及扩展逻辑量子比特,以创建真正的量子超级计算机,能够以高可靠性执行复杂的算法。

每个级别的成功标准都是通过逻辑量子比特错误率、逻辑量子比特数量和可扩展性等因素来衡量的。

在周三发布的通稿中,这位副总裁表示,“这使我们摆脱了当前嘈杂的中尺度量子 (NISQ) 级别,进入到了2 级韧性量子计算阶段。”根据他之前在LinkedIn上的长文,真正地实现2级,需要约 200 个以上的逻辑量子比特,这表明微软还需要在实现更大规模的逻辑量子比特上继续投入。

自 2019 年以来,微软一直与 Quantinuum 合作,使量子开发人员能够在离子阱量子比特技术上编写和运行自己的量子代码,其中包括高保真、完全连接和中电路测量。

此次实验中,微软使用的是Quantinuum新一代的量子计算机H2,它采用独特的“跑道”设计使32 个量子比特实现全连接,这意味着 H2 中的每个量子比特都可以直接与系统中的任何其他量子比特成对纠缠。

Quantinuum 是全球最大的综合量子计算公司,由 Cambridge Quantum 和 Honeywell Quantum Solutions 合并而成,专注于开发基于俘获离子技术的量子计算系统。最近,该公司与谷歌旗下的 DeepMind 合作开展了一个项目,利用人工智能解决量子计算中的棘手问题。

除了与 Quantinuum 的合作之外,微软在量子领域还进行了颇多布局。例如,它直接投资了专注于为量子计算提供光子技术的公司 Photonic Inc. ,并与之建立了合作伙伴关系;此外,它还成为了致力于利用硅光子量子比特打造首台通用量子计算机的 PsiQuantum 的重要投资者。

量子超级计算机会在10年内诞生?

凭借量子力学原理,量子计算机可在密码学、材料科学、药物研发等领域实现指数级的运算加速,大幅提升人类的信息处理能力,甚至重塑未来社会的信息基础设施。因此,量子计算被视为最具有颠覆性的技术之一,将引领人类社会进入全新的信息时代,科技巨头们都在加大在该领域的投入力度。

作为量子计算研究领域的领导者之一,谷歌专注于构建自己的量子硬件。开发了一种超导量子比特设计,并持续努力提高其相干时间和可扩展性,以构建更大规模的量子计算机。

在软件和云集成方面,谷歌拥有得天独厚的优势和积累。它不仅开发了TensorFlow Quantum等工具,用于设计和运行量子机器学习模型,还在自己的云平台上提供基于Sycamore 处理器的量子虚拟机服务。

坐拥全球市场份额第一的云服务AWS的亚马逊则更集中精力在基于云的量子计算资源方面:通过与其他量子硬件开发商合作,提供相关的云服务。

AWS还是量子计算领域开源软件与协作的坚定倡导者,与加州理工学院合作推出 AWS 量子计算中心,以加速该领域的研究与开发。此外,它还发布了 Amazon Braket 等开源软件工具,用于在各类硬件平台上设计与运行量子电路。

以硬件见长的IBM也在这场竞赛中全力以赴。不仅公布了计划在2033年推出“具有 1,000 个逻辑量子比特的以量子为中心的超级计算机”,还在官网上挂出了“未来的计算是以量子为核心”的口号。

与IBM不谋而合的是,微软在去年6月推出了“充满野心”的路线图,计划在10年内推出一台每秒可进行百万次可靠计算的量子超级计算机。

当时看来,无论对IBM还是微软而言,这都是一个难以企及的目标。但随着可靠量子计算的突破,量子比特虚拟化系统的不断改进,以及硬件能力的持续提升,这一目标或许并不遥远。

文:王茜茜 / 数据猿 责编:凝视深空 / 数据猿

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-04-08,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 数据猿 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
IBM:量子计算崛起,存储技术的新挑战与机遇
量子计算正从实验室走向现实应用,但其真正的潜力发挥不仅依赖于量子比特的突破,更取决于底层数据基础设施的支撑能力。与传统计算相比,量子计算机凭借叠加态和纠缠态特性,能够进行并发计算和复杂运算,这种超凡能力对内存和存储系统提出了前所未有的要求。
数据存储前沿技术
2025/11/20
1270
IBM:量子计算崛起,存储技术的新挑战与机遇
量子计算技术挑战与纠错方案解析
量子计算作为一种新兴技术,有望在特定计算问题上实现远超经典计算机的加速效果(甚至指数级加速)。与普通计算机中比特只能取0或1不同,量子比特(qubit)可处于0、1或叠加态(即两者的组合)。量子计算依赖于维持叠加态和纠缠态——这是一种脆弱状态,其中量子比特的量子状态相互依存。
用户11764306
2025/09/02
2170
098_数字取证高级技术:量子计算取证与量子数据安全分析实战指南——从量子比特状态到量子算法的全方位取证方法
随着量子计算技术的快速发展,量子计算正在从理论研究阶段逐步走向实际应用。量子计算机以其独特的量子力学特性,如叠加态和纠缠态,可以解决传统计算机难以处理的复杂问题。然而,这一技术的发展也给数字安全和取证领域带来了新的挑战和机遇。量子计算取证作为数字取证的新兴分支,专注于处理和分析量子计算环境中的数据和安全问题,对于保护量子信息安全和应对量子计算时代的安全威胁具有重要意义。
安全风信子
2025/11/16
1410
量子神经网络与经典网络的表达能力对比:探索幺正变换的奥秘
在人工智能与量子计算两大前沿领域的交汇处,量子神经网络(Quantum Neural Network, QNN)正以革命性的姿态重塑深度学习的边界。作为量子计算原理与神经网络架构的融合产物,QNN通过量子态的叠加与纠缠特性,为传统机器学习模型难以攻克的复杂问题提供了全新解决方案。
用户6320865
2025/08/27
4430
量子神经网络与经典网络的表达能力对比:探索幺正变换的奥秘
量子计算可靠性提升800倍!微软开启2级弹性量子计算新时代
——近日,微软联合Quantinuum,向全世界展示了有史以来最可靠的逻辑量子比特。
新智元
2024/04/12
2530
量子计算可靠性提升800倍!微软开启2级弹性量子计算新时代
量子计算先驱David Schuster的二十年探索之路
2004年,当时还是耶鲁大学博士生的Schuster在《自然》杂志发表开创性论文,首次实现超导电路与微波光子的强耦合,由此创立了"电路量子电动力学"新领域。2007年,他团队在《物理评论A》提出的"transmon"量子比特设计,通过精巧的物理设计将对外部噪声的敏感度降低两个数量级,现已成为行业标准,被亚马逊等科技巨头广泛采用。
用户11764306
2025/07/28
1490
首款高容错通用量子计算机原型登上Nature
机器之心报道 编辑:泽南 复杂性增加,但准确性也增加了。 理论上,量子计算机可以解决常规计算机在宇宙生命周期时间内也无法解决的问题。然而,我们需要大量的工程和技术才能将其「理论上」的能力兑现,制造出实用化的量子设备。 首先,量子计算机必须能够克服自身对错误的脆弱性。在新研究中,研究人员已经成功开发出一种技术,可以用所谓「容错」的方式执行任何可能的量子计算。 在经典计算机上,我们以晶体管的开启和关闭状态表示数据符号的 1 或 0,而量子计算机使用「量子比特」,由于量子物理层面上的特殊性质,它们可以存在 1
机器之心
2022/06/07
2480
首款高容错通用量子计算机原型登上Nature
潘建伟团队光量子计算机TDA新算法横空出世,人工智能量子计算破局
来源:ArXiv;quantamagazine 编译:文强 米乐 【新智元导读】日前,潘建伟团队完成了首个在光量子计算机上进行拓扑数据分析(TDA)算法的验证演示,表明数据分析可能是未来量子计算的一大重要应用。量子计算已经成为国之重器,IBM、谷歌、微软等公司都有布局。但量子计算的基础物理问题还远远没有解决,如:降低错误率、适应错误率以及扩大规模,因此很难从实施中解脱出来。 在过去的几十年中,拓扑学得到了长足的发展,已经成为分析现实世界的强大工具。简单说,拓扑学(Topology)研究的是几何图形或空间在连
新智元
2018/03/20
9800
潘建伟团队光量子计算机TDA新算法横空出世,人工智能量子计算破局
量子计算第二里程碑!谷歌实现量子纠错突破,150多位作者成果登Nature
---- 新智元报道   编辑:编辑部 【新智元导读】继三年前实现「量子霸权」后,谷歌今天宣称,首次通过增加量子比特来降低计算错误率,创下第二个里程碑。 2019年,谷歌首次宣称实现量子霸权,创下首个里程碑。 3年之后,这家公司宣布已经达到通往构建大型量子计算机道路上的第二个关键里程碑(M2)。 即有史以来首次通过增加量子比特来降低计算错误率! 官方博客称,量子纠错(QEC)通过多个物理量子比特,即「逻辑量子比特」,对信息进行编码。 这一方法被认为是大型量子计算机降低错误率来进行计算的唯一方法。 最
新智元
2023/02/24
3050
量子计算第二里程碑!谷歌实现量子纠错突破,150多位作者成果登Nature
36微秒就能完成传统超级计算机9000年才能完成的任务?这台光子量子计算机登上 Nature
挑战「九章」计算优势的光子量子计算机出现了。 作者 | 西西 编辑 | 陈彩娴 近日,加拿大多伦多一家初创公司所开发的光子量子计算机 Borealis 登上 Nature,引起了全球科技圈的广泛关注。 他们号称 Borealis 只用 36 微秒就可以解决传统超级计算机需要九千年才能解决的问题,计算速度超过目前享誉全球的超级计算机,更是挑战了中国的九章 2.0! 这家公司就是成立于 2016 年的 Xanadu。 它们是全球少数目前正在全力研发光子量子计算机的公司,受到 IBM、微软、亚马逊、英伟达等等国
AI科技评论
2022/06/13
4850
36微秒就能完成传统超级计算机9000年才能完成的任务?这台光子量子计算机登上 Nature
谷歌纠错量子计算机新里程碑,逻辑量子比特原型登上Nature
机器之心报道 编辑:杜伟、蛋酱 谷歌 CEO 皮查伊表示,「这项新突破让我们离大规模量子计算机更近了一步。」 谷歌量子 AI 团队又取得新进展! 今日,谷歌 CEO 桑达尔・皮查伊撰写博客,介绍了公司量子计算又向前迈了一大步。谷歌量子 AI 团队有史以来首次通过实验证明:可以通过增加量子比特的数量来减少错误。 我们知道,在量子计算中,量子比特是量子信息的基本单元,可以呈现出超越 0 和 1 的更丰富状态。谷歌今天的突破代表了操作量子计算机方式的重大转变 —— 不再一个一个地处理量子处理器上的物理量子比特,而
机器之心
2023/02/23
4640
谷歌纠错量子计算机新里程碑,逻辑量子比特原型登上Nature
谷歌实现量子霸权论文曝光,圈内人士:量子计算的里程碑事件
9 月 20 日,据《财富》、《金融时报》等多家外媒报道,谷歌已经利用一台 53 量子比特的量子计算机实现了传统架构计算机无法完成的任务,即在世界第一超算需要计算 1 万年的实验中,谷歌的量子计算机只用了 3 分 20 秒。
机器之心
2019/09/24
6140
谷歌实现量子霸权论文曝光,圈内人士:量子计算的里程碑事件
量子计算中国突破!中科大李传峰团队结合AI与量子计算,助力研发快10亿倍超级计算机
人工智能将极大提高处理速度,彻底改变量子研究,并最终可能为研发比现有技术快10亿倍、甚至1万亿倍的超级计算机铺平道路。
新智元
2019/11/27
1.1K0
量子计算中国突破!中科大李传峰团队结合AI与量子计算,助力研发快10亿倍超级计算机
重磅!潘建伟团队实现18个量子比特纠缠,再度刷新世界纪录!
【新智元导读】中国在量子计算领域再次取得里程碑式突破!中国科学技术大学潘建伟团队在国际上首次实现18个光量子比特的纠缠,刷新了所有物理体系中最大纠缠态制备的世界纪录。该成果应用价值极大,表明我国继续在国际上引领多体纠缠的研究。
新智元
2018/07/31
5000
重磅!潘建伟团队实现18个量子比特纠缠,再度刷新世界纪录!
论文精读(一)| 量子计算系统软件研究综述
诸位技术同仁: 本系列将系统精读的方式,深入剖析计算机科学顶级期刊/会议论文,聚焦前沿突破的核心机理与工程实现。
Pocker_Spades_A
2025/07/11
2870
论文精读(一)| 量子计算系统软件研究综述
Google在Nature上发表的关于量子计算的最新进展的论文(Quantum supremacy using a programmable superconducting processor 译)—
Google 的研究人员于2019年10月23号发表在Nature(《自然》《科学》及《细胞》杂志都是国际顶级期刊,貌似在上面发文3篇左右,就可以评院士了)上,关于量子计算方面(基于 Sycamore芯片)的具有里程碑式进展的论文,受到国内外同行及媒体的广泛关注,包括中科大量子科学家 — 潘建伟及其团队。特朗普的女儿Ivanka Trump(左一)也发twitter表示祝贺,如下图:
NaughtyCat
2020/10/09
1.8K0
Google在Nature上发表的关于量子计算的最新进展的论文(Quantum supremacy using a programmable superconducting processor 译)—
干货!从基础到进阶,长文解析微软量子计算概念和算法(上)
我们谈论的量子计算,是一个完全不同的领域。量子计算让我们能够以秒级、 小时级或者几天的时间去解决那些以现在的技术需要花费上亿年计算的问题,我们完全重新定义了所做计算的尺度。
AI研习社
2018/07/26
7380
干货!从基础到进阶,长文解析微软量子计算概念和算法(上)
实现量子计算,我们还需要做些什么?
2019年是量子计算占据新闻热点版面的一年,从1月份IBM公布全球首款商用量子计算原型机到9月份谷歌宣告在全球首次实现“量子霸权”。
AI科技评论
2020/04/02
7230
量子计算赋能AI:优化大模型训练中的梯度下降
传统梯度下降算法的局限性日益凸显,例如收敛速度慢、易陷入局部极小值、计算资源消耗巨大等。量子计算凭借其并行性与量子态叠加特性,为解决这些问题提供了新的可能。 Quantum平台通过量子计算与经典AI技术的深度融合,正在重新定义大模型训练的优化范式。本文从技术原理、算法创新、实际应用三个层面,探讨 Quantum如何赋能梯度下降优化,推动AI训练效率的跨越式提升。
Michel_Rolle
2025/01/23
3.6K0
Science评论:量子计算目前最大的挑战,在0和1之间
2019年10月,谷歌的一项关于量子计算的研究登上了Nature封面。谷歌声称用53个量子比特的量子计算机Sycamore实现了quantum supremacy,引起了学界的广泛关注。论文中指出,他们的量子计算机用3分20秒完成了一项任务,而超级计算机Summit则需要1万年才能完成同样的任务,Sycamore 是完全可编程的、可以运行通用量子算法的量子计算机。不少行业专家称赞谷歌的这项研究是量子计算的里程碑式突破。
AI科技评论
2020/07/23
1K0
Science评论:量子计算目前最大的挑战,在0和1之间
推荐阅读
IBM:量子计算崛起,存储技术的新挑战与机遇
1270
量子计算技术挑战与纠错方案解析
2170
098_数字取证高级技术:量子计算取证与量子数据安全分析实战指南——从量子比特状态到量子算法的全方位取证方法
1410
量子神经网络与经典网络的表达能力对比:探索幺正变换的奥秘
4430
量子计算可靠性提升800倍!微软开启2级弹性量子计算新时代
2530
量子计算先驱David Schuster的二十年探索之路
1490
首款高容错通用量子计算机原型登上Nature
2480
潘建伟团队光量子计算机TDA新算法横空出世,人工智能量子计算破局
9800
量子计算第二里程碑!谷歌实现量子纠错突破,150多位作者成果登Nature
3050
36微秒就能完成传统超级计算机9000年才能完成的任务?这台光子量子计算机登上 Nature
4850
谷歌纠错量子计算机新里程碑,逻辑量子比特原型登上Nature
4640
谷歌实现量子霸权论文曝光,圈内人士:量子计算的里程碑事件
6140
量子计算中国突破!中科大李传峰团队结合AI与量子计算,助力研发快10亿倍超级计算机
1.1K0
重磅!潘建伟团队实现18个量子比特纠缠,再度刷新世界纪录!
5000
论文精读(一)| 量子计算系统软件研究综述
2870
Google在Nature上发表的关于量子计算的最新进展的论文(Quantum supremacy using a programmable superconducting processor 译)—
1.8K0
干货!从基础到进阶,长文解析微软量子计算概念和算法(上)
7380
实现量子计算,我们还需要做些什么?
7230
量子计算赋能AI:优化大模型训练中的梯度下降
3.6K0
Science评论:量子计算目前最大的挑战,在0和1之间
1K0
相关推荐
IBM:量子计算崛起,存储技术的新挑战与机遇
更多 >
领券
社区新版编辑器体验调研
诚挚邀请您参与本次调研,分享您的真实使用感受与建议。您的反馈至关重要,感谢您的支持与参与!
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
首页
学习
活动
专区
圈层
工具
MCP广场
首页
学习
活动
专区
圈层
工具
MCP广场