用两个燧石才能生火:神经关系和解释分类器的多任务学习
采用多任务学习方法解决实体和关系联合提取问题,提出了一种称为循环交互网络的多任务学习模型,能够动态地学习交互来有效地模拟分类的任务特征,并在两个真实数据集上进行实证研究验证了该模型的优越性。
May, 2020
本文介绍一种名为 FiD-Ex 的模型,它采用序列到序列的结构,通过引入句子标记、融合解码器结构和中间微调等方法来解决 Seq2Seq 模型中的问题,显著提高了模型的解释效果和准确性。
Dec, 2020
通过结合学习表示和结构化学习的优点,我们提出了一种最小监督关系抽取方法,可以在知识库提供的命题级监督下,准确地预测句子级别的关系提及。通过在学习期间明确地推理有关缺失数据,我们的方法能够在缓解远程监督的标签噪声的同时进行大规模的一维卷积神经网络训练。我们的方法在最小监督下的句子关系抽取方面实现了最新的成果,优于许多基线方法,包括仅使用神经模型的注意层的竞争方法。
Mar, 2019
本研究提出了一种改进的 Seq2Seq 模型(RELA),在关系抽取中应用自动标签扩充的文本生成技术,即以关系名或其同义词作为生成目标,并分析了该模型的行为。实验结果显示,相比先前的方法,RELA 在四个关系抽取数据集上取得了竞争性结果。
Dec, 2022
本文提出了基于卷积神经网络和循环神经网络集成的关系分类和抽取系统,在 SemEval 2018 任务 7 的 4 个子任务中中有 3 个排名第一。我们提供了设计选择背后最相关特征的详细解释和论据,并分析了它们的重要性。
Apr, 2018
介绍了一种新的神经符号结构用于关系分类,结合了基于规则的方法和现代深度学习技术,通过语义文本匹配增强规则泛化能力,该方法在两个 few-shot 关系分类数据集上的评估中,表明在四个设置中有三个的性能优于之前的最先进模型。
Mar, 2024
本研究提出了 BabbleLabble 框架,使用人类的自然语言解释来训练分类器,得到了具有可比 F1 得分的分类器。此外,针对标记函数的固有不完美性,我们发现简单的基于规则的语义解析器就足以胜任。
May, 2018
通过预训练的语言模型,我们提出了一种新颖的在上下文中进行少样本关系抽取的框架,该框架可以消除命名实体识别和人工注释文档的需要,并实现了与现有方法相比最先进的性能。
Oct, 2023
本文介绍了一种名为 ExPred 的新方法,采用多任务学习的方法,在任务输入的解释生成阶段有效地平衡了解释和预测的损失,并使用另一个预测网络来优化任务性能。在三个不同的语言数据集上进行了广泛的评估,发现我们明显优于现有方法。
Jan, 2021
本文提出了一种新的直接加法方法来更加明确有效地将关系信息引入 Few-Shot 关系提取模型,该方法通过连接两种关系视图来生 成关系表示,并将其直接添加到原型中进行训练和预测,在 FewRel 1.0 基准数据集上实现了显著的改进,并且与最先进的结果相当。
May, 2022