END: 量子纠错等变神经解码器
量子错误纠正是量子计算的一个关键挑战,本研究提出了一种基于 Transformer 的 QEC 解码器,它利用自注意力实现了全局感受野,结合了局部物理错误和全局奇偶标签损失的训练方法,以及其对不同码距的有效迁移学习能力,实现了较佳的逻辑错误率和节省 10 倍以上的训练成本。
Nov, 2023
本文提出了一种基于神经网络的深度量子错误解码器,引入了综合编码对系统噪音的初始估计进行迭代优化,并实现了在重复综合抽样下的有效解码。通过以可微目标直接优化在有限场上计算的逻辑错误率,该方法实现了量子纠错码解码的高效性,超过了现有的神经网络和经典解码器。
Jan, 2023
我们提出了一种基于循环和 Transformer 的神经网络解码器,可以学习解码表面码(surface code),并在真实世界的数据中击败现有的算法解码器,在距离为 3 和 5 的表面码上优于 Google 的 Sycamore 量子处理器。在模拟数据上的实验显示,我们的解码器在包括串扰、泄漏和模拟读出信号等现实噪声的情况下,能够保持其优势,并且在训练过的 25 个循环之外依然能够保持准确性。我们的研究展示了机器学习通过直接学习数据的能力,凸显出机器学习在解码量子计算中作为一个强有力的竞争对手。
Oct, 2023
一种保护量子信息免受噪音诱导错误的有前途的策略是将其编码到拓扑量子存储设备的低能态中。在现实情况下,对于这种存储器的读出错误却不为人所熟知。我们研究在存在诸如淬灭性紊乱等通用扰动的情况下,解码编码在拓扑稳定子哈密顿量的基态中的量子信息的问题。首先,我们通过证明在这种扰动的量子码中,基于稳定子的纠错和解码方案能够适当地发挥作用,从而使得解码误差按照基础未扰动码的距离呈指数下降。然后,我们证明了量子神经网络(QNN)编码器可以几乎使读出错误有二次改善。因此,我们证明了在解码现实量子纠错码时使用 QNN 的有利,这一结果使得在近期实验室环境中可以探索更广泛的非稳定子码范围。
Jan, 2024
基于内存计算的神经解码器推理加速器在量子纠错中的设计和性能分析,以解决解码时间和可扩展性要求,研究了非理想性对解码准确性的影响,为集成的量子纠错提供了可扩展,快速和低功耗的低温内存计算硬件。
Jul, 2023
本文提出了一种将 Transformer 架构扩展到任意块长线性码软译码的方法,通过自适应遮掩的自注意力模块实现代数码和比特之间的交互作用,该方法在符号时间复杂度的分数级运行时间内表现出了 Transformers 的极高能力和灵活性,在性能上优于现有的深度学习码译码器。
Mar, 2022
本研究首次提出了一种统一的编码 - 解码训练方法,用于二进制线性分组码,采用了适应性编码设置,支持针对二阶伽罗瓦域的端到端优化。我们还提出了一种新颖的 Transformer 模型,其中的自注意力掩码采用可微分的方式进行,以实现对码梯度的有效反向传播。实验结果表明:(i) 所提出的解码器在常规编码上优于现有的神经解码器;(ii) 所提出的框架生成的编码优于相应的常规编码;(iii) 我们开发的编码不仅在我们的解码器上表现出色,而且在传统解码技术上也表现出更好的性能。
May, 2024
本文探讨使用深度神经网络进行一次解码的想法,特别是在随机和结构化码,如极化码方面的应用。通过实验我们发现,结构化码比随机码更易于学习,并且神经网络能够推广到它没有见过的结构化码中,这提供了神经网络可以学习解码算法的证据。我们引入了标准化验证误差(Normalized Validation Error,NVE)来进一步研究深度学习解码的潜力和限制。
Jan, 2017
本文提出了一种基于去噪扩散模型进行软解码的方法,通过引入迭代步骤、纠错编码和神经扩散解码器等创新性贡献,能够有效地实现 ECC,同时在单个反向扩散步骤下实现了优异的解码精度,较传统方法有很大提高。
Sep, 2022