当研究人员们在量子计算机上做实验的时候,基本上相当于在黑暗中摸索。毕竟当前的计算机速度太慢,无法验证任何量子实验的结果。不过来自纽约熨斗研究所(FlaTIron InsTItute)的一支团队,却认为可以通过人工智能(AI)来填补这个鸿沟。该团队开发了一种据信能够改变我们测量量子态的方法,为了证明,他们特地进行了一番模拟实验。
据了解,这个方法涉及打造一套软件工具,即借助神经网络来预测量子比特(qubit)的潜在的各个位置。
普通计算机只能够通过普通的比特位(bit)来模拟一个量子系统,即“0”或“1”,而量子比特能够同时出现两种叠加态。
大约 200 个量子比特位的模拟,就要动用 1×百万×万亿×万亿 次的运算(是的,你没有看错)—— 这显然不是一件简单的事情。
量子比特并不是各自为战,而是会与其它量子比特纠缠产生更多的排列,从而极大地增加了必要的实验数量。
好消息是,FlaTIron 团队的新方法,借助了机器学习来完成艰难的工作 —— 这让一台普通计算机也能够运行算法,而不是全面的 1 对 1 模拟。
这意味着只需百次排序,即可完成针对一个 8 量子比特系统的模拟,而不是动辄上百万。此外,新方法也能够在规模更大的量子系统上套用。
简而言之,研究团队开发的这种 AI 算法,可以高效地校准一个量子系统。神经网络支撑的该软件,只会采集很小的数据样本来运行模拟,以及将信息翻译成人类可以理解的样子。
完善之后,这类机器学习应用还可以在实验模拟之外的领域发挥作用。论文合著者 Giuseppe Carleo 在接受 Eureka Alert 采访时表示:
我们可以在其它环境中开发对应的方法,没准未来的一辆自动驾驶汽车,也可以在一台量子机器上运行呢?
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)