职称论文百科

量子计算论文的发表

发布时间:2024-07-05 19:52:49

量子计算论文的发表

根据《越绝内传陈成恒第九》记载,陈成恒是春秋时人,曾担任齐简公的国相。

陈成恒是一位中国的年轻科学家,他于1994年出生于湖南省岳阳市。陈成恒在2016年考入了清华大学物理系本科,之后在2019年获得了清华大学物理系博士学位。他的研究方向主要是量子物理和量子计算,他曾经在美国哈佛大学进行过为期一年的博士后研究。陈成恒在量子计算领域的研究成果备受关注,他曾经在2019年发表了一篇关于量子计算的论文,该论文被誉为“量子计算领域的重要突破”。陈成恒的研究成果不仅在学术界受到了高度的认可,也在社会上引起了广泛的关注。他被誉为中国年轻一代科学家的代表人物之一,是中国科技创新的杰出代表。

陈成恒是谁陈成恒是一位出色的国际知名作家、诗人、翻译家,也是当今中国文学界的重要人物。他的短篇小说《兰》获得了第三届中国文学新人奖;他的诗歌、散文和翻译出版物被翻译成英语、德语、日语、西班牙语、意大利语等多种语言,受到国内外读者的高度评价。陈成恒着重倡导“被绑架的文化”,强调文化的多元性和多样性,拥抱世界,把自己的文学视野打开,把世界文学拉近中国。正是他的贡献,使中国文学融入世界文学,让世界更加了解中国文学。

一周内两次登上国际科学期刊,中科大潘建伟团队太“忙”了!

6 月 15 日,《Nature》杂志刊登了潘建伟团队主导的量子通信研究《基于纠缠的千公里级安全量子加密》。

6 月 18 日,《Science》杂志以“First Release”形式刊登了潘建伟、苑震生在超冷原子量子计算和模拟研究的最新进展,题为“Cooling and entangling ultracold atoms in optical lattices”《在光学晶格中冷却和纠缠超低温原子》。

雷锋网注:图片截自 Science

在后者这项研究中,研究人员实验了首次提出的冷却新机制,实验后使系统的熵 降低了 65 倍 ,达到了创纪录的低熵。

在此基础上,研究团队在光晶格中 首次实现了 1250 对原子高保真度纠缠态的同步制备,保真度为 99.3%。

在量子计算领域,量子纠缠被视为核心资源,随纠缠比特数目的增长,量子计算的能力也将呈指数增长。

因此, 大规模纠缠态的制备、测量和相干操控成为了量子计算研究的核心问题。

通常情况下,实现大规模纠缠态要先同步制备大量纠缠粒子对,再通过量子逻辑门操作将其连接形成多粒子纠缠。

由此, 高品质纠缠粒子对的同步制备是实现大规模纠缠态的首要条件。

在实现量子比特的物理体系中,由于具备良好的可升扩展性和高精度的量子操控性,光晶格超冷原子比特和超导比特被视为最可能率先实现规模化量子纠缠的系统。

早在 2010 年,中科大研究团队就与德国海德堡大学展开了合作,对基于超冷原子光晶格的可拓展量子信息处理展开联合攻关。

研究人员开发了具有自旋依赖特性的超晶格系统,形成了一系列并行的双阱势。

不仅如此,每个双阱势用光场产生了有效磁场梯度,结合微波场,实现了对超晶格中左右格点及两种原子自旋等自由度的高保真度量子调控。

据量子物理和量子信息研究部的说法,在早期研究中,研究团队使用 Rb-87 超冷原子制备了 600 多对保真度为 79% 的超冷原子纠缠态并使用该体系调控特殊的环交换相互作用产生四体纠缠态,模拟了拓扑量子计算中的任意子激发模型。

但由于 晶格中原子的温度偏高,使其填充缺陷大于 10%, 不利于形成更大的多原子纠缠态和提升纠缠保真度。

因此,光晶格超冷原子比特系统需要进一步提升。

论文指出,研究团队首次提出了新制冷机制,即利用交错式晶格结构将处在绝缘态的冷原子浸泡到超流态中,通过绝缘态和超流态之间高效率的原子和熵的交换,以超流态低能激发的形式存储系统中的热量,再用精确的调控手段移除超流态,从而获得低熵的填充晶格。

基于此,研究人员在一个具有 10000 个原子的量子模拟器展开了实验。在二维平面上,研究人员将莫脱绝缘体样品浸泡在可移动的超流体储层中使其冷却。

雷锋网注:图为光晶格中原子冷却的示意图

结果显示,制冷后使系统的熵达到了创纪录的低熵, 降低了 65 倍 ,不仅如此, 晶格中原子填充率大幅提高到 99.9% 以上,达到近乎完美的程度。

在这一制冷基础上,研究人员进一步推进研究。

研究人员开发了两原子比特高速纠缠门,最终 获得了纠缠保真度为 99.3% 的 1250 对纠缠原子。

对此,研究人员表示,其研究为 探索 低能量多体相提供了一个环境,使产生大规模的纠缠更具可能性。

另外,对于这一研究结果,《Science》杂志的审稿人给与了正面评价:

超冷原子量子计算和模拟研究之所以能取得新突破,离不开以潘建伟、苑震生为主导的研究团队,而从其过往的研究经历来看,二位来头不小。

潘建伟

潘建伟,有“量子之父”之称,是“墨子号”的首席科学家。主要从事量子物理和量子信息等方面的研究,是国际上量子信息实验研究领域开拓者之一,同时也是该领域具有重要国际影响力的科学家。

虽然一周连登两次国际期刊,但潘建伟的高光,远不止如此;不仅多次登上国际期刊,还屡次创下记录,主要包括:

苑震生

苑震生,中国科学技术大学教授,其研究方向包括超冷原子量子调控、量子光学,以及原子分子物理。

据量子物理与量子信息研究部官方介绍,苑震生教授在国际权威学术期刊上发表研究论文多达 40 余篇,总引用 2000 次。

其中包括:

·······

尽管这些“最可爱的人”已取得了许多成就,但他们仍未停歇,不断用新的研究成果刷新着我国在量子计算和模拟的进步。

期待更多的研究成果的发布,雷锋网也将持续关注。

参考资料:雷锋网

【1】

【2】

【3】

量子计算论文发表

10月24日,谷歌在《自然》杂志上发表了一篇关于量子计算的论文。称已经开发出一款54量子比特数(其中有效量子比特53个)的超导量子芯片“Sycamore”。基于该芯片对一个53比特、20深度的电路采样100万次只需200秒,而现在最厉害的经典超级计算机Summit完成这一过程需要10000年,谷歌由此宣称率先实现了“量子霸权”。

尽管这一成果得到了许多赞美之词,但也不乏质疑者。不过谷歌的量子计算能力若真如其所言,那么将可能对人工智能领域产生极大的助力。不只是谷歌,现在全球范围内不少 科技 巨头都在量子计算方面有所动作,并且已经取得了可观的成果。

虽然人工智能的概念早在1956年的达特茅斯会议上就已被提出,但迅速发展却是近几年的事情,其中原因与技术和环境的发展有密切相关。如今再加上量子计算作为助力,人工智能是否会更迅速地进入到“强人工智能”的阶段呢?量子霸权倘若到来又会对其他领域产生怎样的影响呢?

在量子计算领域深耕多年的IBM表示,自家有一种计算机完成谷歌提出的任务只需2.5天,根本没有10000年那么久。中科院量子信息重点实验室副主任郭国平也认为,谷歌所谓的10000年是基于量子计算特性“粗暴计算得出的数字”,而未能考虑到如今的超级计算机在网络传输、存储等性能方面的优化。由此看来,谷歌所谓“量子霸权”的说法有误导大众之嫌。

尽管如此,谷歌的这项成果依然值得称道,它不管是对谷歌自身还是一些热门的领域都是有着重要意义的。 而谷歌自己显然也是这么认为的,谷歌CEO桑达尔·皮查伊甚至将此次量子计算研究成果的意义与莱特兄弟发明飞机相提并论。

相对于传统计算,量子计算优势明显。就拿谷歌看重的人工智能领域来说,其源动力分别为大数据、算法和计算能力。大数据靠积累,而计算能力则由摩尔定律衍生而来。

重点在于,人工智能发展的障碍就是计算能力。如今的设备和技术让大数据的积累呈现爆发式增长,但如何处理海量数据是个大问题,如今生产数据的能力与处理数据的能力已然不能匹配。即使是谷歌引以为傲的AlphaGo,下一盘棋所消耗的能量都比人类多出几十万倍,这就是计算能力不足所致。

此时量子计算的作用就得以凸显,它的进展对人工智能领域或许会产生颠覆性的改变。 科技 大师雷·库兹韦尔曾预言“2045年,奇点来临,人工智能完全超越人类智能,人类 历史 将彻底改变”。

而皮查伊在最近的采访中表示,量子计算与人工智能属于“共生事物”,二者同处早期研究阶段。并且“人工智能可以加速量子计算,量子计算可以加速人工智能”。对于量子计算,皮查伊也是信心满满:“我们认为自己是一家深度计算机科学公司。摩尔定律在它的周期结束时,量子计算是我们将继续在计算领域取得进展的众多因素之一”。

在属于“综合性学科”的人工智能中,量子计算占据着如此关键的位置。并且量子计算不仅可以作用于人工智能领域,而是对当下与未来的不少热门领域都能起到重要的作用。那么量子计算到底是什么?又为何会引得诸多巨头花心思去研究呢?

量子计算,即利用量子力学的基本原理来加速解决复杂计算的过程。这种计算方式相较于传统计算机,能够更加迅速高效地处理海量的数据。在传统计算中,要靠微芯片材料与晶体管的进步提升算力,大体上就是在微芯片中嵌入电子开关,在0和1之间交替完成信息处理,芯片上的晶体管数量与芯片处理电信号的速度成正比,从而完成计算。但量子计算则可以兼容0和1,使得计算速度产生质的飞跃。

1965年,英特尔联合创始人戈登·摩尔提出,微芯片上单位面积内的晶体管数量会一年翻一番,但成本会同时减少一半。也就意味着价格不变,集成电路上可容纳的元器件的数目大概每隔18~24个月便会增加一倍,性能也将提升一倍。

这个定律一直对传统计算有着重大意义,但最近几年,依照摩尔定律发展的信息技术进步的速度正在逐渐减慢,尤其是在人工智能领域,摩尔定律显而易见地逐渐失效,中科院院士杜江峰曾在去年发表言论,称摩尔定律最多还能使用10年。

在这种情况下,量子计算的作用得以发挥。传统计算几十年才能解决的数据问题,量子计算可能只需1秒就搞定。不仅是在计算速度层面,还有在材料、设备等方面的最优选择与最佳组合,这些问题经典计算无法解决,可量子计算统统都能搞定。这就使得量子计算不仅在人工智能,并且可以在金融、医疗、物流、网络安全、基因组学等多个领域发挥重大作用。

在这些领域中,许多都是焦点与风口, 科技 巨头们对此自然极为重视。 包括谷歌、微软、英特尔、IBM、阿里巴巴和百度在内的企业纷纷在量子计算方面加以 探索 。

例如微软在2017年建立了拓扑量子位,可以让设备使用现存的更精细的量子位。微软量子团队主管托德·霍尔姆达尔认为,通过量子计算“有机会解决一系列此前无法解决的问题”,而想靠传统计算机来解决这些问题也许会耗尽“宇宙的生命”。

英特尔从2015年就开始与学术界的一些伙伴联合加速研发量子计算技术,到2017年成功测试了17量子比特超导计算芯片。在CES 2018举办期间,英特尔研发出了首个49量子比特的量子计算测试芯片。

阿里巴巴旗下的阿里云与中科院携手在2015年建立了“阿里巴巴量子计算实验室”,助攻多领域量子计算应用,如电商、人工智能、数据安全等。2018年,阿里云推出了有11个量子比特的量子计算云服务。

百度也于2018年成立量子计算研究所,主要研究量子信息理论和量子计算。这对其搜索引擎业务同样能起到推助作用。

这些巨头的主业与计算能力都有关联,更何况量子计算本身就代表着未来的趋势,一旦能够落地使用,将会使多个领域呈现颠覆式变化。如此一来,也就不难理解量子计算为何这么受欢迎了。

在不久的将来,如果还有人想继续从计算能力的指数增长中获益,传统计算已然无法依靠。因为以晶体管为基础的计算方式显然已经不再适合未来,量子计算就是下一个值得追逐的方向。不过量子计算出现的时间也不短了,为何近几年才开始加速?这种加速发展又会给人工智能领域带去何种转变呢?

谷歌在此次研究成果中提到的“量子霸权”,最初是由美国加州理工学院的物理学家约翰·普瑞斯基尔提出的,大意是现在最强的超级计算机能够完成5到20个量子比特的量子计算机所做的事情,但当量子比特超过49个,量子计算机的能力就会将超级计算机远远甩在身后。

谷歌如今是否实现了“量子霸权”尚有争议,但我们应该清楚,照现在这种发展速度,量子霸权注定会有实现的一天,而且这天的到来应该不会太迟。因为英特尔交付的49量子比特的量子计算机芯片,IBM的能处理50量子比特的量子计算机都已经接近了“量子霸权”的标准。其他的一些研究成果虽未达到这个程度,但进步也是很快的。

量子计算的发展推动了多领域的进步,反之一些领域的发展也成了量子计算技术飞速发展的助力。 近年来,人工智能领域无论是技术还是商用,都呈现出爆发式增长的态势。此外,已在加紧布局的5G使得网络传输与单位传输速率大幅提升。这些转变都增强了量子计算的能力,使其发挥出更大的作用,因而量子计算与这些领域相辅相成,共同进步。

在诸多领域中,人工智能与量子计算的关系尤为紧密,人工智能已被 科技 界与学术界公认为是量子计算的重要着力点。 例如,微软就曾经用拓扑量子计算机将其AI助手“小娜”的算法训练时间从一个月缩短到一天。此外,量子计算中自动优化的功能可自行修正人工智能数据系统中的错误,并不断处理新数据。

当前,AI处于“弱人工智能”阶段,但如果不断加入量子计算,那么那种传说中的有独立意志、 情感 认知能力的“强人工智能”或许会提早到来。因为量子计算不仅具备强大的数据处理能力,更有自我学习和修正的能力。

有观点认为,将黑猩猩置于人类的语言环境下使其进行学习,训练足够长的时间,也可以使黑猩猩学会人类语言。黑猩猩尚能训练到如此程度,更何况是集人类智慧大成的人工智能与量子计算。经过这种强强联合,人工智能一定会比人类更聪明、更有能力。同理,量子计算会对更多领域产生本质层面的颠覆,甚至会涉及到国与国之间的 科技 方面的竞争。也许在未来某天,我们关于 科技 的那些最激进的想象都能实现,或者比我们想象中的还要让我们惊讶。

当然想要看到这一天还要继续等待,目前量子计算尚未普及,而且巨头之间关于这一领域也会有激烈的竞争。在这一过程中与之相关的领域会如何发展,巨头之间竞争结果如何,还有待时间的检验。

博科园-科学科普:自1929年以来,化学和物理一直试图通过调用全ci方法来预测复杂的化学反应,但直到现在才成功。全ci计算具有预测化学反应的潜力。这项研究的研究人员报告了一种新的全ci方法首次在量子计算机上实现,这篇论文发表在ACS中央科学期刊上。正如狄拉克在1929年量子力学建立时所宣称的那样,精确地应用数学理论来求解SE,会导致方程过于复杂而无法求解。事实上,在全ci方法中需要确定的变量的数量随着系统大小呈指数级增长,并且很容易遇到诸如指数爆炸之类的天文数字。例如,只涉及42个电子的苯分子C6H6的全ci计算维数为10^44,这是任何一台超级计算机都无法处理的。

更糟糕的是,离解过程中的分子系统具有极其复杂的电子结构(多构型性质),任何一台超级计算机都无法进行相关的数值计算。根据OCU研究小组的说法,量子计算机可以追溯到1982年费曼的建议,即量子力学可以通过计算机本身来模拟,而计算机本身是由遵循量子力学定律的量子力学元素构成。20多年后,哈佛大学(university of Harvard)教授阿斯普鲁-古奇克(Aspuru-Guzik,自2018年起多伦多大学[Toronto university]教授)和同事们提出了一种量子算法,能够计算原子和分子的能量,而不是以指数的方式,而是以多项式的方式对系统变量的数量进行计算,在量子计算机上的量子化学领域取得了突破。

将Aspuru量子算法应用于量子计算机上的全ci计算时,需要得到与所研究的SE的精确波函数接近的近似波函数。否则,坏的波函数需要极端多的重复计算步骤才能得到精确的波函数,从而阻碍了量子计算的优势。由于电子在化学键解离过程中不参与化学键合,所以化学反应具有多构型的性质。OCU研究人员已经解决了这个量子科学和化学中最棘手的问题之一,并在实现一种新的量子算法方面取得了突破,该算法在多项式计算时间内生成称为组态函数(CSFs)的特定波函数。然而,先前提出的量子计算算法不可避免地涉及到许多化学键的离解和形成,从而产生许多不参与化学键的电子,使量子算法难以应用。这就是所谓的“量子困境”。

OCU研究人员引入了一个二自由基特征yi(0 ~ 1)来测量和表征开壳电子结构的性质,并利用其二自由基特征构建化学反应所需的多构型波函数,在量子计算机上沿整个反应路径进行全ci计算。这种新方法不需要耗时的后hartree - fock计算,避免了计算的指数爆炸,首次解决了“量子困境”。OCU小组写道:这是一个实用的量子算法的第一个例子,该算法使用于预测化学反应路径的量子化学计算能够在配备了大量量子位元的量子计算机上实现。这一实现使量子化学计算在量子计算机上实际应用在化学和材料科学的许多重要领域。

博科园-科学科普|研究/来自:大阪市立大学

参考期刊文献:《ACS Central Science》

论文DOI:10.1021/acscentsci.8b00788

博科园-传递宇宙科学之美

量子计算机论文发表

麻省理工学院计算机科学与人工智能实验室(CSAIL)的一个研究小组创建了一种新的量子计算编程语言,名为 Twist。Twist 的设计目标是让开发者更容易识别哪些数据是纠缠在一起的,从而创建错误更少、更容易调试的量子计算程序。

Twist 项目地址:

Twist 的基础在于识别量子纠缠。量子纠缠是一种物理现象,指的是量子计算机内两块数据的状态联结在一起。“当你操作处于纠缠状态的一块数据时也可能会影响另一块。你可以用这种特性来实现强大的量子算法,但它也让你写的程序很难直观推理,并容易引入微妙的错误。”上面这段话来自麻省理工学院 CSAIL 计算机科学博士生、Twist 论文的主要作者 Charles Yuan,这篇论文发表在《ACM 编程语言》杂志上。

Charles Yuan 说:“Twist 提供了一些特性,让开发者可以确定哪些数据是纠缠的,哪些不是。”“在程序中加入关于纠缠的信息后,你就可以检查量子算法的实现是否正确。”

该语言的特性之一是一个类型系统,使开发者能够指定他们程序中的哪些表达式和数据片断是纯粹的。据 Yuan 说,一个纯粹的数据片断是没有纠缠的,因此不存在可能由纠缠造成的错误和不直观的效果。Twist 还加入了纯度断言运算符来确认一个表达式不存在与任何其他数据的纠缠关系,与之搭配的还有静态分析和运行时检查,可以用来验证这些断言。

为了评估这种语言,该团队用 Twist 为一组著名的量子算法编写了一些程序,并在量子模拟器上执行了它们。“我们的实验表明,运行这些运行时检查的开销不超过运行基本程序的 3.5%,我们认为这是相当低的数字,相比语言给你的安全保证来说是一个很好的权衡,”Charles Yuan 说。

该团队还在一些程序中引入了一些小错误,并发现 Twist 可以检测到这些错误并拒绝错误的程序。“我们希望,当人们使用我们的语言或为他们的特定用例设计新的量子语言时,他们可以考察一下我们的工作,并认可纯度这个想法和将纠缠作为一种特性的设计,因为这将给他们带来更多信心,让他们确认自己的程序是正确的,而不必运行大量昂贵的模拟和测试,”Charles Yuan 说。

当许多研究人员专注于开发高效和优化的量子硬件时,Twist 旨在填补量子软件的空白。麻省理工学院副教授、Twist 论文的共同作者 Michael Carbin 说:“与我们看到的机器学习和其他高性能计算应用类似的是——在硬件发展的每一个新阶段,我们都会得到一个新的系统和很多潜在的新能力——如果我们能充分利用硬件能力,也许就能获得许多不可思议的机会。但几乎每次都是软件上的问题让人们难以利用硬件能力,也很难在不同的软件系统中部署和广泛使用这些硬件。”“我们正在做的工作是奠定一些基础,并试图找出一些可能提升这些类型设备可编程性的核心抽象。”

然而,该团队在构建 Twist 时面临的挑战之一是缺乏一个关于量子程序特征的标准。“多年来,人们已经开发了一些核心算法来解决个别复杂的任务,如整数因式分解等,但我们如何为它建立一个完整的软件生态系统却依旧是个问号,”Charles Yuan 说。“有了 Twist,我们就能够围绕我们对要在量子计算机上执行的任务的最佳共识来构建语言,并让编程语言对这些任务尽可能具有表达力。”

谈到局限,Twist 只能告诉你一个数据是否与其他数据纠缠在一起,但不能告诉你它们是如何纠缠在一起的。”袁说:“它们纠缠的具体方式将决定一个量子算法是否正确,但数据纠缠的方式有无数种。”给出这种更精细的细节是一个真正的挑战,这也是我们未来需要做的事情。”

该团队现在正在开发另一种语言,它建立在 Twist 的基础上,目标是应对其他量子现象(如相位和叠加)。但他们希望 Twist 将为创造更好的量子程序铺平道路。

Charles Yuan 说:“对于一位试图实现量子算法的开发者来说,他们需要语言中内置的工具来告诉他们程序中正在发生一些由纠缠引发的事情。”如果我们能够构建一系列核心语言原则和特性,让开发者可以推理纠缠现象,我们就可以减轻纠缠带来的认知负担,并让开发者写出更符合直觉的程序。”

原文链接:

中国科学技术大学潘建伟院士团队近日成功研制出全球超导量子比特数量最多的量子计算原型机 “祖冲之号”,宣告全球最大量子比特数的超导量子体系的诞生。

量子计算机原型机发布后,我国首个可操纵的超导量子计算机体系“祖冲之号”问世。该成果将为促进中国在超导量子系统上实现量子优越性奠定了技术基础,也为后续具有重大实用价值的通用量子计算的研发提供支持。中国科学技术大学潘建伟院士团队近日成功研制出全球超导量子比特数量最多的量子计算原型机 “祖冲之号”,宣告全球最大量子比特数的超导量子体系的诞生。这篇名为《在可编程二维62比特量子处理器上的量子行走》的论文5月7日发表在《科学》杂志。

量子计算机是全球科技前沿的重大挑战之一,也是世界各国角逐的焦点。超导量子计算已成为最具希望的候选者之一,它的核心目标是增加 “可操纵” 的量子比特数量,通过提升操纵精度来实现落地应用。祖冲之号” 可操纵的超导量子比特多达62个,而此前谷歌实现 “量子优越” 的“悬铃木”53个量子比特。研究团队在大尺度晶格上首次实现了量子行走的实验观测,并实现对量子行走构型的精准调控,构建了可编程的双粒子量子行走。

iqm发表量子计算机论文

代表人类未来 科技 发展方向的量子学,成为各国研究机构及大型企业的 探索 方向。受现有技术水平的限制,目前量子计算技术仅被用于国家重大科研事项,以及进行大型数字测算。距离人类实现量子计算机规模化、商业化需要很长的一段道路,甚至是不现实的一件事情。但接下来的一个成就,为人类实现未来量子计算的可控、规模化,奠定了重要基础。 2021年12月13日消息。《自然电子学》于上周发表的一项研究显示:芬兰阿尔托大学、VTT和IQM在内的研究联盟设计了一种新的微波源。该微波源能够规避现有量子计算机庞大的控制系统导致的扩展性阻碍因素。为量子计算机今后的灵活性、便捷性发展奠定了重要基础。 据了解,在接近绝对零度的温度下,该微波电路能够产生控制量子计算机所需的高质量微波信号。也正是这个特点,为原本具有庞大、笨重身躯的量子计算机,朝着便捷、灵活性高的方向发展提供了可能。体积庞大的控制系统朝着量子处理器方向前进。这可能大幅提高量子计算机处理器中的量子比特数。 研究团队在《自然电子学》中介绍:“我们已经建立了一个精确的微波源,它可以在与量子处理器相同的低温下工作,这里说的低温是在零下273 的环境中”。团队负责人Mikko Mtten表示:该设备产生的功率是以前设备版本的100倍,这足以控制量子位和执行量子逻辑运算。Mikko Mtten还提到,该设备能够产生一个十分精确的正弦波,每秒震荡超过十亿次。 补充一点,该研究团队推出的新型微波源是一种可以与量子处理器集成的片上设备,如同5G射频芯片与中央处理器之间的协同。该微波源尺寸不到1毫米,不需要额外的温度高频控制电缆连接。具备低功率、低温等优势。能够在增加处理器当中量子位数量的同时,缩小低温恒温器的体积。 不过正如前面提到的那样,现有人类 科技 的水平,还无法有效掌握量子计算技术。连续波微波源面临着一个较为棘手的问题,就是如何像控制量子位那样,快速打开和关闭微波源。眼下该研究团队正在 探索 解决该类问题的可行方案。 但不管怎么说,微波源的诞生,将拉动量子计算机的发展。为人类日后的 科技 发展,留下了浓艳的一笔。让量子计算机在未来实现商用化、个人用户化,提供了可能。 对于芬兰阿尔托大学、VTT和IQM研究机构破冰成功的低温微波源,大伙有什么想说的呢?采用该微波源线路的量子计算机,能否在日后实现从控制系统向量子处理器的过渡呢?

谷歌发表量子计算机论文

(思进注: 1994年,数学家Peter Shor公布了一种量子算法,该算法可以打破最常见的非对称密码算法的安全性假设。这意味着拥有足够大量子计算机的任何人,都可以使用此算法通过公钥反算出私钥,从而伪造任何数字签名。这是否意味着比特币将会被量子计算机crack down…… 事实上,中心化的密钥体系PKI,确实会有这个风险,因为大多数应用是CA+10的6次方。海量反编译,是可以推算出中心密码本的!也就是说,伪造PKI数字签名是有可能的, 拭目以待吧……再转发下文,和大家分享……) 谷歌计划2029年前量子计算商用化,比特币价值将归零? 作者 | 新浪 财经 来源 | 华尔街见闻 量子计算何以对比特币构成威胁? 在解释这个问题前,需要先了解以下几个知识点。 经典计算机采用二进制,用0和1构建了底层代码的一切。量子计算机可以同时储存和表示0和1叠加态。比特币挖矿基于计算一种名为SHA-256的哈希函数(一种函数算法,把任意一个字符串输入SHA-256函数,都会输出一个256位的二进制数)的正确值。每一个比特币用户在注册的时候,系统都会生成一个随机数,再对这个随机数进行SHA256再进行hash160,产生一个叫做私钥的字符串。作为数字签名。私钥可以对一串字符进行加密。而公钥可以把私钥加密之后的数据进行和解密。加密和解密的钥匙不一样的这种加密方式,称之为非对称加密。通过公钥反算不出私钥。如果私钥遗失,那么拥有者的比特币就无法取出。 基于上述原因,由于SHA-256的正确值十分难计算,数量有限的比特币才会变得极为稀缺和珍贵。同时由于经典计算机无法通过公钥反算出私钥,私人拥有的比特币才无法被他人获得。 但在1994年,数学家Peter Shor公布了一种量子算法,该算法可以打破最常见的非对称密码算法的安全性假设。这意味着拥有足够大量子计算机的任何人,都可以使用此算法通过公钥反算出私钥,从而伪造任何数字签名。 故而,在量子计算面前,比特币的挖矿将变得轻而易举,通过公钥也能反算出私钥。这令比特币变得不再稀缺,也不再安全。 同时意味着比特币的共识将产生崩塌,比特币的价值也将趋零。 关于量子力学,广为人知的还有光的波粒二象性、观测者效应,和一个著名的思想试验——薛定谔的猫。 量子世界是如此不合常理,以至于它曾令说出“上帝不会掷骰子“爱因斯坦,都感到困惑不解。 无论如何,量子计算机的出现,对经典计算机形成了巨大挑战。而随着量子计算研究进程的递进,比特币的破解,或许在2029年前就将成为可能。 谷歌的量子计算进程如何? 早在2019年,谷歌发表在《自然》杂志上的论文称,其开发的54比特(其中53个量子比特可用)超导量子芯片“Sycamore”,对53比特、20深度的电路采样一百万次仅需200秒,最强的经典超级计算机Summit要得到类似的结果,则需要一万年。基于这一突破,谷歌宣称实现了“量子霸权“。 而近日在 Google I/O 大会上,领导谷歌 Quantum AI(量子 人工智能)团队的的科学家Hartmut Neven表示,谷歌计划在2029年前建造数十亿美元的量子计算机并将其正式商用。 谷歌的目标是建造有着100万个量子比特的计算机。不过,谷歌同时表示,首先需要减少量子比特产生的错误,然后才能考虑将1000个量子比特一起构建为一个逻辑量子比特。这将为“量子晶体管”打下基础,“量子晶体管”是未来量子计算机的基础。目前谷歌的量子计算机只有不到100个量子比特。但要知道,互联网诞生至今不过52年,第一台通用计算机诞生至今不过75年. 谷歌目前正在加利福尼亚州扩建一个新园区,用以专注于量子计算方面的研究工作,扩建工程将于2020年底正式完工。 在量子计算领域大举投资和押注的公司,除了谷歌,还有IBM、D-Wave Systems、霍尼韦尔(Honeywell)。 IBM Research总监Dario Gil曾表示,2023年将是量子计算大面积使用的转折点,届时将能通过软件实时查看和更新量子计算的状态,而不再是通过以往的硬件调整。 高德纳咨询公司 (Gartner)副总裁Chirag Dekate表示,过去五年中,量子计算的创新速度超过了此前的30年,他还预计到2025年,将有近40%的大公司制定量子计算计划。 关于对抗量子计算,目前已出现量子密码学的相关研究。一个名为The Open Quantum Safe (OQS)的开源项目已于2016年启动,目标为开发抗量子的密码形式。

2020年1月11日,我国自主研发设计的500米口径球面射电望远镜通过国家验收,正式投入使用,它被中国人亲切地称为“中国天眼”。1994年,在我国天文学家南仁东的倡议下正式立项,历时22年建成。

量子霸权只是一个名词而已,实际意思并没有听起来那么霸气,不过国内的科普和媒体比较喜欢用这个词。

谷歌宣布实现量子霸权?

前些天,谷歌公司在自然杂志上发布了封面论文,声称所研发的拥有53个量子比特的量子计算机在处理随机线路采样问题上超越经典超级计算机。

这次谷歌在论文中和报道中声明他们并非实现了量子霸权,而是证明了量子优越性。但国内媒体已经习惯了使用量子霸权这个词了,所以国内大部分新闻报道的标题都是谷歌实现了量子霸权。包括我在转发这一消息时也是使用了量子霸权这个词,因为这个词比较霸气侧漏,最主要是太流行了,一说出来大家都基本知道发生了什么事,写个量子优越性大家反而无法真正理解究竟发生了什么事。况且量子霸权和量子优越性其实只是释义上的差别,两者英文其实是同一个词:Quantum supremacy.

不过在国内通用的量子霸权这个词本身其实挺让人误解的,以为发生了什么不得了的事,以为可以称霸世界统一地球了……事实究竟是怎样呢?

量子霸权究竟是什么?

其实量子霸权真正的意思是量子计算机在处理某些特定问题时的性能超过已有的所有经典计算机。

注意,是处理某些特定问题时!量子计算机并非处理所有问题都能比经典计算机快,而是只有处理那些可以进行并行计算的问题时会有优势,比如那些含有一个或多个变量的计算。

所以实际上把它翻译成量子优越性更加准确和合理,可能正是由于量子霸权这个名字过于霸气,所以当谷歌的新闻出来后,我在科学群里听到很多对此质疑的声音,不但质疑所谓的量子霸权,甚至质疑量子计算机的真实性。

量子优越性真的实现了吗?

IBM公司是第一个跳出来提出质疑的,但它并不是质疑谷歌的量子计算机的真实性和谷歌量子计算机有没有那么强,而是质疑谷歌论文中的超级计算机有没有那么弱!为什么IBM会那么暴躁?除了由于在量子计算中竞争对手的关系外,更主要的原因是此次谷歌论文中需要算10000年的超级计算机所使用的就是IBM的Summit超级计算机!这是目前地球上性能最强的超级计算机!它是IBM公司制造的。

看着自家的骄傲——地表最强超级计算机被秒成渣,谁能忍这口气?

IBM在谷歌论文发布前一天提交了论文,声称谷歌在计算中并未对超级计算机进行优化,IBM论文中给出了优化方案,通过优化,Summit超级计算机只需要2.5天即可完成谷歌的计算任务,与谷歌论文中给出的10000年相差了1461000倍。IBM公司据此声称谷歌并未实现量子霸权。

问题是谷歌的量子计算机只用了200秒……200秒比2.5天快了1080倍,虽然没有原来的1461000倍那么夸张,但也已经是压倒性优势了……我认为这已经完全展现了量子优越性。

量子计算机真的可以实现吗?

此次谷歌证明量子优越性的论文其实早在9月份就曾经在NASA官网意外曝光,不过由于当时已经提交的论文并未通过同行评审,因此NASA光速撤回了,而此次自然杂志正式刊发并作为封面论文,表明已经通过了同行评审,没毛病,因此如果要怀疑量子计算机的可行性,那就相当于在质疑自然杂志的专业评审的专业性了。我不认为这是一个明智的表现。

另一方面,同样在研发量子计算机的竞争对手IBM公司同样没有质疑谷歌量子计算机计算性能的真实性,他们也一直在研发量子计算机,如果量子计算机真的无法实现,坐拥世界最强超级计算机的IBM公司理应以此提出质疑,而不是利用优化超级计算机来缩小差距后依然被秒成渣。

展望

谷歌这次证明了量子计算机的可行性和优越性,表明这条路是可行的并且是值得走的,不过也同时指出,这只是个开始,以后的路还长,离实用化的通用可编程的量子计算机还有多长的路要走?也许5年,也许10年,也许更长……但既然路是通的,就应该走下去,量子计算机的未来是光明的。

目前谷歌的53比特量子计算机属于试验机,其处理的随机线路采样问题并没有实用性,但是量子计算机的未来方向是可编程的通用量子计算机,将可以通过编程处理所有适合并行计算的问题,这方面的应用在科研领域用途广泛,比如构建理论模型、化学模拟、药物研发等各方各面,将对科学、科技、医疗等方面产生深远影响,我们期待那一天尽快到来。

2017年6月,“神威·太湖之光”凭借这一“超级速度”第三次出现在榜单榜首位置,实现三连冠。基于“神威·太湖之光”,我国科研团队的项目获得了2016年超级计算机应用领域最高奖:“戈登·贝尔”奖,成为我国高性能计算发展史上的里程碑。

相关百科
热门百科
首页
发表服务