增强功能词关注网络用于少样本逆向关系分类
本文提出了一种新的直接加法方法来更加明确有效地将关系信息引入 Few-Shot 关系提取模型,该方法通过连接两种关系视图来生 成关系表示,并将其直接添加到原型中进行训练和预测,在 FewRel 1.0 基准数据集上实现了显著的改进,并且与最先进的结果相当。
May, 2022
本研究旨在增强少样本关系分类,特别是针对联合描述多个关系的句子。我们提出了 CTEG 模型,它配备了两种机制,以学习如何解耦易混淆的关系:一个基于实体引导的注意机制 (EGA) 和一个明确学习如何区分关系的混淆感知训练 (CAT) 方法。实验证明,我们提出的 EGA 和 CAT 可有效解决关系混淆问题,并实现了与强基线方法相当甚至更好的分类效果。
Oct, 2020
本文提出了一种 RANA 框架,用于处理 FKGC 任务中的零损失问题与上下文相关的实体表示,并在两个基准数据集上展示其胜过现有模型的性能。
Jun, 2023
本文提出了一种新颖的基于实体概念增强的少样本关系提取方案(ConceptFERE),通过计算句子与概念之间的语义相似度,选择最合适的概念,再通过自注意力融合模块建立概念嵌入和句子嵌入之间的联系,提高了关系分类性能。
Jun, 2021
本研究提出了一种轻量级神经框架,使用实体感知的词嵌入方法、自注意机制和基于丰富语境表示的汇聚门来解决监督远程关系提取的问题和减轻之前机制的缺陷,实现了最高的分类准确性和最佳的实验结果。
Nov, 2019
本篇论文提出基于序列标注联合提取方法的小样本关系抽取任务,利用少量标注数据解决领域中标注数据不足的问题,并将两种实际序列标注模型应用于这个框架达到了良好的效果。
Aug, 2022
基于表征的孪生网络在轻量级文本匹配中因其低部署和推理成本而变得流行。我们提出了 Feature Attention(FA),一种新颖的下游模块,旨在丰富嵌入特征之间的依赖建模。该模块动态调整对个体特征的强调,使网络更集中于对最终分类有重要贡献的特征。在 FA 的基础上,我们引入了一种名为 Selective Feature Attention(SFA)的动态 “选择” 机制,利用了堆叠 BiGRU Inception 结构。该模块通过遍历不同的堆叠 BiGRU 层,促进网络集中关注跨不同抽象级别的语义信息和嵌入特征,从而实现多尺度语义提取。FA 和 SFA 模块都能无缝集成到各种孪生网络中,并展示了即插即用的特性。对多样的文本匹配基线和基准进行的实验评估强调了建模特征注意力的必要性以及 “选择” 机制的优越性。
Apr, 2024
本文提出了一种基于联合学习模型的生物医学因果关系提取方法,将实体关系提取和实体功能检测结合起来,以提高因果关系提取的性能,并且在模型训练阶段,为不同的功能类型分配不同的权重,实验结果表明,与其他系统相比,我们的联合学习系统在 BEL 语句提取中取得了最先进的表现。
Aug, 2022
本文提出了一种基于位置感知的关系网络(PARN)来学习更灵活和强韧的测度能力,以解决 few-shot learning 中的问题。通过引入可变形特征提取器(DFE)和设计双相关性注意力机制(DCA),成功地使我们的方法能够知道语义对象的位置,并在多个基准数据集上取得最先进的表现。
Sep, 2019
提出了一个名为 FEA 的连续关系抽取方法,其中包含两个学习阶段:快速适应和平衡微调。该方法适用于处理类增量数据流,并在 TACRED 或 FewRel 上实现了与最先进的基线相当或更高的性能。通过对数据不平衡的仔细检查,我们发现 FA 阶段可以放大内存数据的潜力,而 BT 阶段有助于建立更平衡的决策边界。此方法提供了可操作的见解和建议,为未来的 CRE 模型设计提供启示。
Sep, 2022