本研究介绍了一种新颖的量子混合态注意力网络(QMSAN),将量子计算原理与经典机器学习算法,特别是自注意力网络相结合,以增强处理自然语言处理任务的效率和效果。实验证实 QMSAN 模型在文本分类方面优于现有的量子和经典模型,显著提高了性能,对低噪声具有良好的鲁棒性。
Mar, 2024
我们通过对各种经典和量子神经网络顺序模型进行简要调查,重点关注近期提出的用于近期量子设备的量子方法,同时探索了这些量子模型的一些基本增强。我们通过将量子自注意力应用于文本和图像分类的量子混合变压器的图像分类方法对这些现有方法进行重新实现,还将量子自注意力和量子递归神经网络应用于自然语言处理任务。我们还探索了不同的编码技术,并将位置编码引入量子自注意力神经网络,从而在文本和图像分类实验中提高准确性和更快收敛。本文还对经典的自注意力模型及其量子对应模型进行了比较分析,有助于揭示这些模型及其性能之间的差异。
Dec, 2023
本文提出了用近期的量子设备实现可行的量子自注意(QSAN)网络,并研究了其线性和可逆的量子自我注意机制,包括量子逻辑相似性,量子比特自我注意得分矩阵等,该方法能够解决自我注意机制由于二次复杂度导致的存储问题,并能够充分部署在量子计算机上,在自然梯度下降的方法下能够更快地进行训练,具有实现量子增强自然语言处理(NLP)的巨大潜力。
Jul, 2022
本研究探讨了一种可扩展的量子神经网络(SQNN)方法,通过利用多个小型量子设备的量子资源来提高分类精度和训练效率。 对 MNIST 数据集进行的评估表明,相比于相同规模的常规 QNN 模型, SQNN 模型可以实现具有可比较的分类精度,并且超过一定量子资源的 SQNN 模型可以显著提高分类精度。
Aug, 2022
提出了一种基于量子卷积的全新量子神经网络模型,该模型通过引入多尺度特征融合机制和量子深度卷积来提高模型性能,并通过实验证明其在文本分类任务上优于现有量子神经网络模型,同时在使用更少参数的情况下提高了测试精度。
May, 2024
引入了量子核自注意机制 (QKSAM) 来增强量子机器学习模型在大规模高维量子数据上的效果,构建了基于 QKSAM 的量子核自注意网络 (QKSAN),结合了量子核方法 (QKM) 的数据表示优势和自注意机制的高效信息提取能力,通过延迟测量原则和条件测量技术来释放计算过程中的量子资源,实现了四种 QKSAN 模型在 Pennylane 平台上对 MNIST 图像进行二分类,其中最好的模型具有较强的噪声容忍性和学习能力;该研究为未来量子计算机在大数据上进行机器学习提供了基础,并推动了量子自然语言处理等领域的进展。
Aug, 2023
利用基于核操作学习的自我注意力机制的量子电路,我们提出了 Self-Attention Sequential Quantum Transformer Channel (SASQuaTCh) 模型,该模型能够有效地表示视觉变换网络的深层特征,并展示其在简化分类问题上的实用性。
我们介绍了一个可以通过监督学习表示带有标签的数据(经典或量子)并进行训练的量子神经网络。该网络由一系列参数相关的酉变换组成,作用于输入的量子态,可以进行二元分类。我们展示了如何对经典数据集进行分类,并使用实际数据集的例子展示了该网络的应用。
Feb, 2018
本文主要讨论了量子神经网络(Quantum Neural Networks)在监督学习任务中的不同结构和编码策略,并使用 Julia 语言编写的量子模拟器 Yao.jl 来衡量它们的性能,以方便科学家们开发出强大的变分量子学习模型及相应的实验验证。
Jun, 2022
该硕士论文介绍了量子自然语言处理(QNLP)的实现细节,其中采用基于张量积的算法将表示单词含义的向量通过句子的句法结构进行组合,并应用于三种实际应用场景。
Feb, 2022