基于自注意力网络的节点嵌入模型
本篇论文介绍了一种新颖的卷积自注意力网络,通过引入多头注意力机制,加强了邻近元素之间的依赖关系,并能够对各个注意力头提取的特征之间的交互进行建模,用于机器翻译任务中能有效提高自注意力网络的本地性,实验证明该方法优于常用的 Transformer 模型和其他已有的模型,并且没有更多的额外参数。
Apr, 2019
本研究提出了一种名为 GCN-SA 的新型图学习框架,它具有出色的节点级表示学习的泛化能力,并且通过自注意机制和改进的转换器块实现了对长程依赖关系的捕捉,从而使其能够在具有不同程度同质性的图上进行表示学习。
Mar, 2024
该论文介绍了一种新型轻量级自注意网络 LSAN,通过组成嵌入将原始嵌入矩阵进行压缩并提出了时态上下文感知的嵌入组合方案以解决目前序列推荐中所存在的大量参数嵌入矩阵对资源受限环境的开销过大的问题,并拥有更强的性能表现。
Aug, 2021
本文探讨了使用自注意网络 (Self-Attention Networks) 进行情感分析的有效性,发现相较于循环神经网络 (RNNs) 和卷积神经网络 (CNNs),使用自注意网络在分类准确率、训练速度和内存消耗方面表现优越,并研究了多头注意力和序列位置信息等方面的改进效果。
Dec, 2018
提出了一种新颖的方向性多维度自注意力机制 DiSAN,用于句子编码,相对于复杂的 RNN 模型,它在预测质量和时间效率方面表现更好,并在多个数据集上得到了最优的测试准确性表现。
Sep, 2017
本文介绍了一种名为 SANVis 的可视化分析系统,旨在帮助用户理解多头自我注意力网络的行为和特征,其中通过 Transformer 模型的使用展示了 SANVis 在机器翻译任务中的使用场景。
Sep, 2019
本文提出了一种基于自注意力机制的句子嵌入模型,通过使用二维矩阵表示嵌入,并让每行矩阵分别关注句子中不同的部分,提高了可解释性。并在作者分析、情感分类和文本蕴含等三个任务中进行了模型评估,在所有任务中与其它句子嵌入方法相比表现出了显著的性能提升。
Mar, 2017
本论文提出了一种新颖的基于注意力机制的节点嵌入框架,该框架使用基于节点周围子图集合的分层核,并使用一个光滑的统计流形来比较多组集合,从而明确计算与高斯混合嵌入流形的传播注意,其应用在节点分类任务上,取得了优于现有模型的效果。
May, 2023
本文旨在探索利用基于注意力机制的神经网络对特征进行重要性排序以用于模型解释的方法,通过对十个数据集进行规模无关的特征重要性估计算法比较的研究,展示了利用自注意力网络(SAN)对特征进行排序与其他方法在高级别特征识别上的相似性,以及在某些情况下,SAN 对特征交互性的识别比现有基线方法更具优势。
Feb, 2020