IJCAIApr, 2024

基于表示的孪生文本匹配中的选择性特征关注建模

TL;DR基于表征的孪生网络在轻量级文本匹配中因其低部署和推理成本而变得流行。我们提出了 Feature Attention(FA),一种新颖的下游模块,旨在丰富嵌入特征之间的依赖建模。该模块动态调整对个体特征的强调,使网络更集中于对最终分类有重要贡献的特征。在 FA 的基础上,我们引入了一种名为 Selective Feature Attention(SFA)的动态 “选择” 机制,利用了堆叠 BiGRU Inception 结构。该模块通过遍历不同的堆叠 BiGRU 层,促进网络集中关注跨不同抽象级别的语义信息和嵌入特征,从而实现多尺度语义提取。FA 和 SFA 模块都能无缝集成到各种孪生网络中,并展示了即插即用的特性。对多样的文本匹配基线和基准进行的实验评估强调了建模特征注意力的必要性以及 “选择” 机制的优越性。