SIGIRMar, 2024

EulerFormer:基于复杂向量注意力的顺序用户行为建模

TL;DR该研究提出了一种名为 EulerFormer 的新型变体 Transformer 模型,利用复向量注意力机制动态地整合语义差异和位置差异,并通过相位对比学习任务来改善上下文表示的各向异性。在四个公共数据集上进行的广泛实验证明了该方法的有效性和效率。