财联社2月23日讯(编辑 周子意)周三(2月22日),科学顶刊《自然》上公布了一项壮举:谷歌宣布量子计算机在纠错方面已取得突破性进展,达到了通向实用量子计算机道路上的第二个里程碑。
量子计算机被誉为计算的未来,能够运行一些在传统计算机上非常困难或不可能进行的计算。
但它们也容易出错,这是该技术实际应用中存在的主要问题之一。所以纠错也是量子计算机面临的主要挑战之一。
在加利福尼亚州圣巴巴拉市的一个实验室里,谷歌的研究人员已经证明,他们可以通过增大量子比特的数量来降低计算的错误率。谷歌将这一突破称为,继2019年“量子优势”里程碑后的第二个里程碑。
2019年的一项著名实验得出,谷歌的量子计算机实现了“量子优势”——即执行在普通计算机上需要数千年才能完成的计算。
纠错是个主要挑战
传统计算机中的基本信息单位被称为“位”,以1和0的字符串形式存储。
在量子计算机系统中,这些单位被称为“量子位”(量子比特),可以同时是1和0。量子计算机利用量子物理的特性来存储数据并进行计算。
从理论上讲,这使得量子计算机的计算能力比传统计算机强得多,可以执行现有计算机需要多年才能完成的任务。
然而,量子计算机很容易犯错,这是因为各种环境因素会使量子比特偏离预期状态,例如宇宙射线,这是一种来自太空的高能辐射。
量子比特依赖的量子态只能维持不到一秒。这意味着,还没等到计算机完成计算,量子系统中存储的信息就可能已经丢失了。所以,在量子计算机中传递信息的能力是脆弱的,而热量和材料缺陷等环境干扰会导致错误逐渐增加。
逻辑量子比特
谷歌和Alphabet的首席执行官皮查伊(Sundar Pichai)在一篇博客文章中写道,“我们的量子人工智能研究人员首次通过实验证明,可以通过增加量子比特的数量来减少错误。”
谈及具体方式,皮查伊称,“我们不是在量子处理器上对每个物理量子比特进行逐个纠错,而是将一组量子比特视为一个逻辑量子比特去处理。”
谷歌量子AI工程总监Hartmut Neven博士对此展开了研究。在这项研究中,Neven博士和他的同事们创建了一个拥有72个物理量子比特的超导量子处理器,并测试了两种不同大小的逻辑量子比特:一种是由49个物理量子比特组成,另一种是由17个物理量子比特组成。
结果显示,量子计算造成的错误依旧存在,不过经过研究人员统计错误率,发现较大的逻辑量子位的错误率较低,每轮错误率约为2.9%,而较小的逻辑量子位的错误率约为3.0%。
所以说,由49个量子比特制成的逻辑量子比特的表现要优于17个量子比特制成的逻辑量子比特。
对此,皮查伊称赞道,“我们的突破代表着我们操作量子计算机的方式发生了重大转变。
还有长路要走
Neven还承认,这项突破的改进仍然很小,错误率需要进一步降低。
新加坡Horizon Quantum的物理学家Joe Fitzsimons表示,各个实验室都已经在有效纠错方面取得了重大进展,谷歌的最新成果具有许多必需的特征。不过量子比特需要有存储信息的能力,以便计算机有足够的时间进行计算,目前谷歌团队还没有实现这一壮举。
谷歌为自己制定了量子计算路线图,其中有六个关键里程碑。第一是量子优势,第二是最新的纠错结果,而第六里程碑是一台由100万个物理量子比特组成的处理器,编码1000个逻辑量子比特。
Neven称,“当到达第六阶段,我们可以自信地承诺其商业价值。”
领取专属 10元无门槛券
私享最新 技术干货