量子混合态自注意力网络
本文提出了一种名为 QSANN 的量子自我注意神经网络,它将自我注意机制引入到量子神经网络中,通过高斯投影解决了诸如大规模数据集和句法依赖性网络结构等限制;QSANN 在公共数据集的文本分类任务中表现优越,且具有鲁棒性和可扩展性。
May, 2022
引入了量子核自注意机制 (QKSAM) 来增强量子机器学习模型在大规模高维量子数据上的效果,构建了基于 QKSAM 的量子核自注意网络 (QKSAN),结合了量子核方法 (QKM) 的数据表示优势和自注意机制的高效信息提取能力,通过延迟测量原则和条件测量技术来释放计算过程中的量子资源,实现了四种 QKSAN 模型在 Pennylane 平台上对 MNIST 图像进行二分类,其中最好的模型具有较强的噪声容忍性和学习能力;该研究为未来量子计算机在大数据上进行机器学习提供了基础,并推动了量子自然语言处理等领域的进展。
Aug, 2023
本文提出了用近期的量子设备实现可行的量子自注意(QSAN)网络,并研究了其线性和可逆的量子自我注意机制,包括量子逻辑相似性,量子比特自我注意得分矩阵等,该方法能够解决自我注意机制由于二次复杂度导致的存储问题,并能够充分部署在量子计算机上,在自然梯度下降的方法下能够更快地进行训练,具有实现量子增强自然语言处理(NLP)的巨大潜力。
Jul, 2022
本文提出了一种基于混合量子自编码器的 QML 算法,旨在在经典描述的空间中学习识别和分类量子态的特征属性,为聚类和半监督分类提供了一种新的方法,该方法针对的是幅度编码的量子态,可以应用于非平凡的量子数据集的结构分析。
Jul, 2021
通过利用 Transformer 模型来捕捉不同测量结果之间的相关性,本研究提出了一种基于注意力机制的量子状态重构方法,能够高效地恢复纯态和混合态的密度矩阵。
May, 2023
提出了一种基于格罗弗启发的量子硬注意机制,利用灵活的预言机和自适应扩散算子来提高量子机器学习的性能和适用性,在 Fashion MNIST 二分类任务中展示了优于传统方法的准确性和学习能力。
Jan, 2024
本文讨论利用 Grover 的搜索算法有效地计算稀疏注意力计算矩阵,并在经典方法上实现了多项式量子加速。我们的量子算法输出的注意力矩阵还具有额外的低秩结构,这将有助于获得更快的 LLM 训练算法。此外,我们还对算法的错误分析和时间复杂度进行了详细分析。
Jul, 2023
提出了一种基于量子卷积的全新量子神经网络模型,该模型通过引入多尺度特征融合机制和量子深度卷积来提高模型性能,并通过实验证明其在文本分类任务上优于现有量子神经网络模型,同时在使用更少参数的情况下提高了测试精度。
May, 2024
我们通过对各种经典和量子神经网络顺序模型进行简要调查,重点关注近期提出的用于近期量子设备的量子方法,同时探索了这些量子模型的一些基本增强。我们通过将量子自注意力应用于文本和图像分类的量子混合变压器的图像分类方法对这些现有方法进行重新实现,还将量子自注意力和量子递归神经网络应用于自然语言处理任务。我们还探索了不同的编码技术,并将位置编码引入量子自注意力神经网络,从而在文本和图像分类实验中提高准确性和更快收敛。本文还对经典的自注意力模型及其量子对应模型进行了比较分析,有助于揭示这些模型及其性能之间的差异。
Dec, 2023