澳洲同城网

标题: 媒体:谷歌量子芯片发布震惊全球,但这并不是新鲜事(图) [打印本页]

作者: 返朴    时间: 2024-12-11 15:00
标题: 媒体:谷歌量子芯片发布震惊全球,但这并不是新鲜事(图)
我国的超导量子计算团队在奋力追赶的同时,也应沉得住气,今年不行待明年。不必半年一小发布,一年一大发布,没东西硬发布。毕竟谷歌此次发布距离上一次已过去五年。 撰文 | 无邪 2024年12月10日,谷歌公布了其量子芯片最新进展:Willow芯片在RCS(随机线路采样)基准测试中建立了史无前例的量子优势,5分钟内即可完成当下最先进的超级计算机需要1025(10亿亿亿)年才能完成的计算——从创世之初到天荒地老也算不完。此外,这款芯片还首次实现了表面码纠错的历史性突破:纠错后的逻辑量子比特错误率低于所有参与纠错的物理量子比特,换句话说,现在终于可以越纠越好了。


实际上,早在今年9月,我就在《返朴》上发表了介绍相关工作的文章——《谷歌量子纠错取得重要突破:逻辑量子比特寿命大幅延长》,并提到芯片上的进步乃是促成这一突破的关键。文章指出了这项工作的历史性意义,同时也表达了对国内量子计算研发进程的担忧。令我颇感遗憾的是,当时这篇文章并没有引起多少关注。直到谷歌量子芯片Willow正式发布,立刻震惊全网。一时间,找我求证的人可谓络绎不绝,纷纷让我做出评价,我只得苦笑一声并翻出那篇老文章,并告诉大家其实我已经解读过了。 转念一想,我觉得还是值得再写一篇。此次谷歌“良心”地公布了芯片高清照片和总体指标,所以我还是能提供一些新东西的。既然谷歌发布的主角是Willow芯片,那这次我就重点讲下超导量子芯片。 量子芯片是量子计算的基本逻辑单元——量子比特的载体。此外,芯片上还需要排布与量子比特操控和测量相关的必要电路,包括读取谐振腔/传输线、微波/直流操控线等,以及实现量子纠缠所必需的耦合单元。 事实上,超导量子芯片与传统的半导体芯片相比,两者有不少相似之处:同样是将各种元器件以复杂的电路形式刻印在小小的硅片或其他衬底上,刻印的尺寸都在微纳米尺度。这为超导量子计算带来了一个非常诱人的优势:与半导体工业具有高度的可兼容性。不过,二者也有些显著的区别。一方面是最核心的元器件,半导体芯片为场效应晶体管,而超导量子芯片使用约瑟夫森结;另一方面是材料,半导体芯片主要使用掺杂硅、二氧化硅,以及铜、铝等电路引线材料,而超导量子芯片必须使用各种常规超导材料,如铝、铌、钽等。这些区别又导致了它们在工艺制程上有巨大的差别。当我给单位来访嘉宾们讲解我们的量子芯片加工实验室时,被问到最多的一个问题就是:“你们这个相当于半导体的几纳米?”我总不免要先“呃”一下,然后大脑飞快思索一番,想如何能讲清楚这个问题。讲完这些区别后,看着听众们一言不发,只是抿着嘴坚定地点头,我知道,我又没讲透。 量子芯片的质量,基本决定了最终量子计算的质量。谷歌此次发布的Willow芯片,包含105个量子比特,等等,才105个量子比特,就值得这么大张旗鼓发布,还赢得马斯克等一众科技大佬的点赞吗?要知道,苹果M1芯片就包含了160亿个晶体管啊!我的回答是,值,这就是赤裸裸地秀肌肉,妥妥的塔尖级别的量子芯片。有诸多因素导致研发100规模量子计算芯片极富挑战性。 首先,量子态极其脆弱。特别像超导量子比特这样的宏观量子比特,存储的信息在眨眼工夫(不到1毫秒)就会彻底消失,想让量子信息消失得慢一点,需要付出极大的努力(可参阅《超导量子比特寿命突破500微秒——虽为人间一刹,却是意义非凡》)。 其次,经典比特要么处于0要么处于1,只要噪声不是大得离谱(比如在太空环境下),晶体管几乎就不会出错。而量子比特则可以处于0和1的任意叠加态,任何轻微的扰动就足以改变一个量子态。 第三,在多量子比特芯片中,比特与比特、比特与耦合器、比特与控制线等之间总会存在难以消除的残余相互作用,导致所谓的“串扰”。串扰的存在极大地增加了校准的难度和成本,限制了量子门保真度的提升,同时还会导致错误在量子比特间迅速蔓延。 此外还有频率拥挤、封装等问题。要克服上述这些困难,需要在设计、材料和工艺等方面的长期努力。谷歌用了5年时间,终于从Sycamore进化到Willow,退相干时间取得了5倍的提升,对于这种高连通度、高调控自由度的芯片而言,这是一个巨大的进步。再加上读取速度和保真度方面的进步,终于使得开篇提到的两项突破成为可能。


相比早先的Sycamore一代和二代,Willow芯片的退相干性能有了大幅提升。 关于芯片的细节,我们目前只能从照片上了解。在之前arXiv上贴的论文(Quantum error correction below the surface code threshold)中,他们提到了这归功于“能隙剪裁(Gap-engineering)”技术的应用。此外,基于可调量子比特和可调耦合器,谷歌开发了一整套基于数据训练和学习的优化方法,以确保所有量子比特工作在最佳状态。芯片是量子计算最为核心的技术,谷歌、IBM等世界顶级团队,早已不再公布其技术细节。值得庆幸的是,国内长期从事超导量子计算研究的top团队仍能及时跟进,并同样取得不错的成绩。


包含105个量子比特的Willow芯片 但我们需要警惕的是,我们过于关注一些“硬指标”,如比特数量、门保真度等,而容易轻视一些系统级指标和“软指标”,对于量子计算这样复杂的系统性技术而言,这是过度简化的,时间长了甚至是危险的。举例来说,此次发布的Willow芯片,其读取速度超过了90万次/秒,也就是1.1微秒完成一次读取,这不仅要求芯片上有高超的设计,同时要求测控电子学系统有超高的实时解码能力。谷歌最近还发表了一篇高水平论文,展示了机器学习模型AlphaQubit在量子计算错误识别方面的优异性能;IBM则在量子-超算融合方面取得进展——利用127比特量子云平台与“富岳”的结合,实现了包含28个原子的FeS团簇分子计算。这样的例子还有很多。如何构建一套科学的、与时俱进的系统评测方法,或者说基准测试方法,对未来推动量子计算工程化、实用化而言是非常重要的。


Willow芯片的性能指标一览 最后,祝贺谷歌量子AI团队。我国的超导量子计算团队在奋力追赶的同时,也应沉得住气,今年不行待明年。不必半年一小发布,一年一大发布,没东西硬发布。毕竟谷歌此次发布距离上一次已过去五年。





欢迎光临 澳洲同城网 (https://www.tongchengau.com/) Powered by Discuz! X3.2