量子计算机之路:革命尚未成功,我们仍有机会

量子计算机之路:革命尚未成功,我们仍有机会,第1张

编者按:

2016年11月18日,中科院软件所研究员杨超与清华大学副教授薛巍、付昊桓等人联合北师大组成的研究团队凭借在“神威·太湖之光”上运行的“千万核可扩展全球大气非静力云分辨模拟”应用,一举摘下国际高性能计算应用领域最高奖—戈登贝尔奖。同时,中科院计算机网络信息中心基于“神威·太湖之光”的“钛合金微结构演化相场模拟”也成功入围,获得提名。

高性能计算能力是国家重要科技实力的体现,中科院、科技部率先部署和支持了高性能计算相关规划与建设。到2016年,中国科学院高性能计算环境已为我国科研服务20年,支撑了多个国家重大规划、千余项国家各类科研项目。

虽然中国高性能计算已经取得了里程碑性的成绩,不过科研工作者的脚步从未停止。他们已经在思考,未来的发展方向在哪里,并将目光瞄向了“天然的超级计算机”—量子计算机。

本文根据郭光灿院士在“纪念HPC@CAS20周年学术研讨会”上的报告整理、编辑而成,并经本人审阅。

一、“杞人忧天”的物理学家们与量子计算机的诞生

量子计算机的诞生,和著名的摩尔定律有关,还和“杞人忧天”的物理学家们有关。

众所周知,摩尔定律的技术基础是不断提高电子芯片的集成度(单位芯片的晶体管数)。集成度不断提高,速度就不断加快,我们的手机、电脑就能不断更新换代。

图 1 摩尔定律

在20世纪80年代,摩尔定律很贴切地反映了信息技术行业发展。但“杞人忧天”的物理学家们,却提出了一个“大煞风景”的问题:

摩尔定律有没有终结的时候?

之所以提出这个问题,是因为摩尔定律的技术基础,天然地受到两个主要物理限制。

一是巨大的能耗,芯片有被烧坏的危险。

芯片发热主要是因为计算机门 *** 作时,其中不可逆门 *** 作会丢失比特。物理学家计算出每丢失一个比特所产生的热量, *** 作速度越快,单位时间内产生的热量就越多,计算机温度必然迅速上升,必须消耗大量能量来散热,否则芯片将被烧坏。

二是为了提高集成度,晶体管越做越小,当小到只有一个电子时,量子效应就会出现。电子将不再受欧姆定律管辖,由于它有隧道效应,本来无法穿过的壁垒也穿过去了,所以量子效应会阻碍信息技术继续按照摩尔定律发展。

这两个限制就是物理学家们预言摩尔定律会终结的理由所在。

【隧道效应:由微观粒子波动性所确定的量子效应,又称势垒贯穿。本质上是量子跃迁,粒子迅速穿越势垒。在势垒一边平动的粒子,当动能小于势垒高度时,按照经典力学,粒子是不可能越过势垒的;而对于微观粒子,量子力学却证明它仍有一定的概率贯穿势垒,实际也正是如此,这种现象称为隧道效应。】

虽然这个预言在当时没有任何影响力,但“杞人忧天”的物理学家们并不“死心”,继续研究,提出了第二个问题:

如果摩尔定律终结,在后摩尔时代,提高运算速度的途径是什么?

这就导致了量子计算概念的诞生。

量子计算所遵从的薛定谔方程是可逆的,不会出现非可逆 *** 作,所以耗能很小;而量子效应正是提高量子计算并行运算能力的物理基础。

甲之砒霜,乙之蜜糖。对于电子计算机来说是障碍的量子效应,对于量子计算机来说,反而成为了资源。

量子计算的概念最早是1982年由美国物理学家费曼提出的。1985年,英国物理学家又提出了“量子图灵机”的概念,之后许多物理学家将“量子图灵机”等效为量子的电子线路模型,并开始付诸实践。

但当年这些概念的提出都没有动摇摩尔定律在信息技术领域的地位,因为在相当长时间内摩尔定律依然在支撑着电子计算机的运算速度的飞速提高。

直到今年,美国政府宣布,摩尔定律终结了。微电子未来的发展方向是低能耗、专用这两个方向,而不再是追求速度。

从这个例子,人们再次看到,基础研究可能在当时看不到有什么实际价值,但未来却会发挥出巨大作用。

二、量子计算机虽然好,研制起来却非常难

量子计算机和电子计算机一样,其功用在于计算具体数学问题。

所不同的是,电子计算机所用的电子存储器,在某个时间只能存一个数据,它是确定的, *** 作一次就把一个比特(bit,存储器最小单元)变成另一个比特,实行串行运算模式;而量子计算机利用量子性质,一个量子比特可以同时存储两个数值,N个量子比特可以同时存储2的N次方数据, *** 作一次会将这个2的N次方数据变成另外一个2的N次方数据,以此类推,运行模式为一个CPU的并行运算模式,运行 *** 作能力指数上升,这是量子计算机来自量子性的优点。量子计算本来就是并行运算,所以说量子计算机天然就是“超级计算机”。

?图 2 量子计算机工作原理

要想研制量子计算机,除了要研制芯片、控制系统、测量装置等硬件外,还需要研制与之相关的软件,包括编程、算法、量子计算机的体系结构等。

一台量子计算机运行时,数据输入后,被编制成量子体系的初始状态,按照量子计算机欲计算的函数,运用相应的量子算法和编程,编制成用于 *** 作量子芯片中量子比特幺正 *** 作变换,将量子计算机的初态变成末态,最后对末态实施量子测量,读出运算的结果。

一台有N个量子比特的量子计算机,要能保证能够实施一个量子比特的任意 *** 作和任意两个量子比特的受控非 *** 作,才能进行由这两个普适门 *** 作的组合所构成的幺正 *** 作,完成量子计算机的运算任务。这是量子芯片的基本要求。如果要超越现有电子计算水平,需要多于1000个量子比特构成的芯片。目前还没有这个能力做到。这种基于“量子图灵机”的标准量子计算是量子计算机研制的主流。

除此以外,还有其他量子计算模型,如:单向量子计算,分布式量子计算,但其研制的困难并没有减少。另外,还有拓扑量子计算,绝热量子计算等。

由于对硬件和软件的全新要求,量子计算机的所有方面都需要重新进行研究,这就意味着量子计算是非常重要的交叉学科,是需要不同领域的人共同来做才能做成的复杂工程。

三、把量子计算机从“垃圾桶”捡回来的量子编码与容错编码

实现量子计算机最困难的地方在于,这种宏观量子系统是非常脆弱的,周围的环境都会破坏量子相干性(消相干),一旦量子特性被破坏将导致量子计算机并行运算能力基础消失,变成经典的串行运算。

所以,早期许多科学家认为量子计算机只是纸上谈兵,不可能制造出来。直到后来,科学家发明了量子编码。

量子编码的发现等于把量子计算机从“垃圾桶”里又捡回来了。

采用起码5个量子比特编码成1个逻辑比特,可以纠正消相干引起的所有错误。

不仅如此,为了避免在 *** 作中的错误,使其能够及时纠错,科学家又研究容错编码,在所有量子 *** 作都可能出错的情况下,它仍然能够将整个系统纠回理想的状态。这是非常关键的。

什么条件下能容错呢?这里有个容错阈值定理。每次 *** 作,出错率要低于某个阈值,如果大于这个阈值,则无法容错。

这个阈值具体是多大呢?

这与计算机结构有关,考虑到量子计算的实际构型问题,在一维或准一维的构型中,容错的阈值为10^-5,在二维情况(采用表面码来编码比特)中,阈值为10^-2。

目前,英国Lucas团队的离子阱模型、美国Martinis团队的超导模型在单、双比特下 *** 作精度已达到这个阈值。

所以我们的目标就是研制大规模具有容错能力的通用量子计算机。

四、量子计算机的“量子芯”

量子芯片的研究已经从早期对各种可能的物理系统的广泛研究,逐步聚焦到了少数物理系统。

20世纪90年代时,美国不知道什么样物理体系可以做成量子芯片,摸索了多年之后,发现许多体系根本不可能最终做成量子计算机,所以他们转而重点支持固态系统。

固态系统的优点是易于集成(能够升级量子比特数目),但缺点是容错性不好,固态系统的消相干特别严重,相干时间很短, *** 控误差大。

2004以来,世界上许多著名的研究机构,如美国哈佛大学,麻省理工学院,普林斯顿大学,日本东京大学,荷兰Delft大学等都投入了很大的力量,在半导体量子点作为未来量子芯片的研究方面取得一系列重大进展。最近几年,半导体量子芯片的相干时间已经提高到200微秒。

国际上,在自旋量子比特研究方面,2012年做到两个比特之后,一直到2015年,还是停留在四个量子点编码的两个自旋量子比特研究,实现了两比特的CNOT(受控非)。

虽然国际同行在电荷量子比特的研究中比我们早,但是至今也只做到四个量子点编码的两个比特。我们研究组在电荷量子比特上的研究,从2010年左右制备单个量子点,然后2011年双量子点,2012~2013年实现两个量子点编码的单量子比特, 2014~2015实现四量子点编码的两个电荷量子比特,目前已研制成六个量子点编码为三个量子比特个并实现了三个比特量子门 *** 作。已经达到国际领先水平。

?表 1 与国际领先研究的对比

超导量子芯片要比半导体量子芯片发展得更快。

近几年,科学家使用各种方法把超导的相干时间尽可能拉长,到现在也达到了100多微秒。这花了13年的基础研究,提高了5万倍。

特别是,超导量子计算在某些指标上也表现更好,分别是:

1.量子退相干时间超过0.1ms,高于逻辑门 *** 作时间1000倍以上,接近可实用化的下限。

2.单比特和两比特门运算的保真度分别达到99.94%和99.4%,达到量子计算理论的容错率阈值要求。

3. 已经实现9个量子比特的可控耦合。

4. 在量子非破坏性测量中,达到单发测量的精度

5. 在量子存储方面,实现超高品质因子谐振腔。

美国从90年代到现在,在基础研究阶段超导领域的突破,已经引起了企业的重视。美国所有重大的科技公司,包括微软、苹果、谷歌都在量子计算机研制领域投入了巨大的力量,以期全力争夺量子计算机这块“巨大的蛋糕”!

其中,最典型的就是谷歌在量子计算机领域的布局。它从加州大学圣芭芭拉分校高薪引进国际上超导芯片做得最好的J. Matinis团队(23人),从事量子人工智能方面的研究。

他们制定了一个计划:明年做到50个量子比特,定这个目标是因为,如果能做49个量子比特的话,在大数据处理等方面,就远远超过了电子计算机所有可能的能力。

整体来看,量子计算现在正处于“从晶体管向集成电路过渡阶段”。

五、尚未研制成功的量子计算机,我们仍有机会!

很多人都问,实际可用的量子计算机究竟什么时候能做出来?

中国和欧洲估计需要15年,美国认为会更快,美国目前的发展确实也更快。

量子计算是量子信息领域的主流研究方向,从90年代开始,美国就在这方面花大力气研究,在硬件、软件、材料各个方面投入巨大,并且它有完整的对量子计算研究的整体策划,不仅各个指标超越世界其他国家,各个大公司的积极性也调动了起来。

美国的量子计算机研制之路分3个阶段:第一阶段政府主导,主要做基础研究;第二阶段,企业开始投入;第三阶段,加快产出速度。

反观中国的量子计算机发展,明显落后,软件、材料几乎没有人做,软硬件是相辅相成的,材料研究也需提早做准备。“十三五”重大研究计划,量子计算机应当“三驾马车”一起发展,硬件、软件、材料三个都要布局。

尽管落后,毕竟量子计算机尚未研制成功,我们仍有机会,只是时间已越来越紧迫!只要能发挥我国制度的优越性,集中资源有步骤地合理布局、支持,仍然大有可为!

出品:科普中国

制作:中国科学技术大学 郭光灿 中国科普博览

监制:中国科学院计算机网络信息中心

“科普中国”是中国科协携同社会各方利用信息化手段开展科学传播的科学权威品牌。

本文由科普中国融合创作出品,转载请注明出处。

最近,半导体巨头高管接连跳槽。短短时间内,英特尔接连挖走了苹果Mac系列架构总监Jeff Wilcox、AMD首席独立GPU架构师Rohit Verma、美光首席财务官David Zinsner等高管。

此外,在苹果工作了近三年的高级工程师Mike Filippo已入职微软担任首席架构师,负责Azure服务器芯片的开发。

半导体领域又开始了一轮高管跳槽潮。

我们先来看看被挖角的苹果架构总监Jeff Wilcox。这次英特尔从苹果挖来的是其M1芯片产品的总设计师,他从2013年就加入苹果,迄今为止已经在苹果有9年的工作经验。

在Jeff Wilcox工作的九年时间里,他负责过苹果T2安全芯片以及M1系列处理器的开发,在他的带领下,苹果电脑芯片实现了历代提升和革新,简单来说,Jeff Wilcox是苹果芯片,甚至可以说是苹果电脑幕后的技术支柱。

但我们仔细看Jeff Wilcox的履历,Jeff Wilcox最早在英特尔工作,当了三年的PC芯片组领导架构师,之后被苹果挖走。因此,很多人对Jeff Wilcox的跳槽评价为是一种“回归”。

实际上,同样被英特尔挖走的AMD首席独立GPU架构师Rohit Verma也曾在英特尔工作,本次也是“二进宫”。1999-2013年期间,他在英特尔担任首席SoC架构师14年之久。

自2013年加入AMD工作后,在其八年的职业生涯中从事的项目涵盖台式机和笔记本电脑的独立显卡以及涉及CPU、GPU、结构、电源管理和安全性更广泛的SoC架构设计。

有趣的是,Verma与现任英特尔首席执行官 Pat Gelsinger 的生涯重叠度相当高。1979年,18岁的Gelsinger加入英特尔担任质量控制技术员。当 Verma 于 1999 年在英特尔开始他的职业生涯时,Gelsinger 已担任英特尔台式机产品事业部总经理,并于 2001 年成为英特尔的首位CTO。

可以看出,在最近的高管离职中,被英特尔收入囊中的高管与英特尔都有千丝万缕的关系。

当2021年Pat Gelsinger作为新任CEO重返英特尔,英特尔便开启了进击的时期,频频从其他公司挖角大牛,尤其是曾经与其共事过的“老团队”。

在Linkedin上,Rohit Verma也发消息称,对自己重返英特尔感到兴奋。

除去“回归”本家外,公司未来规划的变动释放出的机会也成为吸引高管的重要原因。

微软正在加速布局云计算服务器和Surface设备开发定制芯片,在其招聘岗位中放出了SoC架构总监的招聘信息。

在苹果工作近三年的Mike Filippo入职微软,担任首席架构师,负责Azure服务器芯片的开发。

我们翻阅Mike Filippo的履历。在其加入苹果前,他在ARM担任首席CPU架构师、首席系统架构师和ARM Fellow,负责开发Cortex-A76、Cortex-A72、Cortex-A57以及即将推出的7nm+和5nm芯片,他还在AMD和英特尔分别工作了8年、5年。

实际上,除了公司高管,半导体领域曾因布局元宇宙而掀起过挖人浪潮。

微软的AR团队,在过去的一年里也流失了100余名员工,他们当中约70人原属于HoloLens团队,其中又有40人跳槽到Meta,包括前HoloLens用户反馈主管查理·汉(Charlie Han)、前HoloLens演示团队成员约什·米勒(Josh Miller)等。

苹果也是被挖角的重点地区,接连失去M1处理器研发高管、自动驾驶 汽车 团队高管、甚至在2021年被Meta挖走100多名前苹果员工。

为了应对这种情况,避免被Meta等竞争公司抢走更多人才,苹果公司向部分工程师和软件部门的工作人员提供了一笔股票福利。这笔额外收入的金额从5万至18万美元(约合人民币32万元-114万元)不等,它们将以限制性股票形式发放,限制期为4年。苹果借此希望减少资深员工跳槽。

在谷歌,如何留住员工成了首席执行官桑达尔·皮查伊每周高管会议的讨论议题。同时,谷歌还开始向员工提供额外的股票奖励,避免人才被人挖走。

但有时候钞能力不是万能的,至少对于高管来说并不是。前英特尔硬件负责人和首席工程师Venkata Renduchintala博士在宣布离职前,其年度总薪酬约为2688万美元,是英特尔公司内部薪酬最高的高管之一。

在英特尔的官方公告中,由于Renduchintala领导的TSCG小组将拆分为5个小组,小组领导者直接向CEO汇报工作,这些变化使得Renduchintala离职。

此前,谷歌副总裁苏罗吉特就离职去了最大的虚拟货币交易公司Coinbase,成为该公司的首席产品官。目前Coinbase上市,苏罗吉特在该公司的股权价值已超过6亿美元(约合人民币38亿元)。

对于半导体产业来说,高管的多次跳槽算不上是一件坏事。

当年的仙童“八叛徒”,在离开仙童后,诺伊斯带着戈登·摩尔与工艺开发专家安迪·格鲁夫创立了英特尔;仙童销售部门主任杰里·桑德斯带着几名员工创立了AMD半导体公司;克莱纳创办了 KPCB 风险投资;瓦伦丁创立了国家半导体公司,之后又成立了红杉资本。

在 1970 年前后的半导体浪潮中,可以说大部分半导体公司都起源于仙童半导体公司。这一批半导体公司可以说是奠定了硅谷的 科技 基础。

面对“八叛徒”的纷纷离去,苹果公司前CEO乔布斯做了一个形象的比喻:“仙童半导体公司就像个成熟了的蒲公英,你一吹它,这种创业精神的种子就随风四处飘扬了。”

而AMD Zen架构之父的吉姆·凯勒也先后在AMD、英特尔和特斯拉担任高管,多次跳槽以寻求新的挑战。

铁打的高管,流水的大厂。人是整个产业的核心,中国半导体产业受政策和资本的驱动,现在正是好光景。半导体人才的待遇普遍显著提升,对于吸引人才更有优势。

在高管的跳槽潮中,有一个值得注意的消息。原英伟达高管杨超源正式加入国产GPU厂商壁仞 科技 ,任副总裁兼董事长特别助理。

杨超源曾在英伟达、台积电工作,在英伟达任职期间,他负责架构设计、研发、流片和团队管理,在上海组建了英伟达在美国总部之外的首个海外研发中心,并担任英伟达上海总经理。

巨头高管加入国产厂商无疑是一个极好的风向,这意味着中国国内半导体厂商的吸引力在增加。如今的中国半导体正在从拿来主义过渡到真正的自我创新,这一过程需要研发投入的坚持,也需要对人才培养的重视。

在瞄准半导体发展的坚定目标下,我们期待越来越多的巨头高管加入国产厂商。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/dianzi/5907770.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-03-07
下一篇 2023-03-07

发表评论

登录后才能评论

评论列表(0条)

保存