- 深度学习增强自旋量子比特环境的噪声谱学
本论文实验结果表明,使用神经网络重建近邻 NV 中心中的碳杂质集合的功率谱密度,可以提高噪声光谱学的准确性,同时需要比标准动力解耦技术更少的动力解耦序列。
- 超导量子计算系统展示量子体积 64
我们通过采用动力学解耦、编译器优化、更短的两量子比特门以及激发态激励读数的组合来提高超导量子计算系统的量子电路的质量(由量子体积测量),这表明实现更大量子体积系统的途径需要同时提高相干性、控制门保真度、测量保真度以及更智能的软件,这显示出需 - MM使用循环神经网络优化动力解耦量子存储
利用基于循环神经网络的机器学习模型来优化动力解耦(DD)序列,通过对比实验结果表明该方法能够提高量子存储器的性能和噪声抑制,且易于在实验中执行。
- 遗传算法优化动力学解耦
利用遗传算法优化去耦合序列,在脉冲误差下实现单量子位系统的鲁棒性。
- 稳健动力学解耦
本文回顾了量子计算机中一种被称为动力学解耦的提高量子信息寿命的方法,并比较了不同的脉冲序列。我们证明了脉冲不完美会限制动力学解耦的性能,但可以通过脉冲和序列的设计来消除脉冲误差带来的干扰并显著提高系统的相干时间。
- 动力学退耦中时间反演对称性的影响
本研究探讨了动力学解耦技术在量子计算中的应用,使用时间对称性的构建块来改善序列的性能,并通过量子态重构分析了减少保真度的机制,提出了一种适当的解耦脉冲构建方式。
- 用于量子计算和量子存储的鲁棒动力学解耦
本文介绍了一种新的动力学解偶序列,可用于量子计算和量子存储,以探究如何使 DD 序列抵抗不同类型的实验误差的影响,同时保持良好的解偶效率在不稳定的环境中。
- 单个固态自旋通用动力学解耦出自旋浴
通过双轴动力学解耦,在钻石中单个自旋和环境之间的相互作用得到了极大的抑制,并且发现弛豫时间的增强遵循解耦脉冲数量的普适标度。这些结果揭示了实验量子科学的新领域,并允许克服实现量子信息协议的主要障碍。
- 优化的动力学解耦在模型量子存储器中的应用
通过优化动力学解耦脉冲序列的应用,我们在模型量子系统上进行了实验测量,证明了我们能够显著抑制量子位的错误率。我们通过实时反馈找到新的序列,并将这些序列与已有的序列进行比较,证明了这些本地优化的脉冲序列在测试中表现优于其他所有序列。