基于双语词嵌入映射的神经跨语言关系抽取
提出了一种基于双语单词嵌入的翻译方法,以改善跨语言的 named-entity recognition 性能,并使用 self-attention 来提高鲁棒性。在对常见语言的测试中达到了最先进或具有竞争力的 NER 性能。
Aug, 2018
本研究提出了一种基于 Prompt-Tuning 的 XRE 算法,使用多语言 Pre-trained 语言模型,通过硬性提示、软性提示、混合提示等多个提示模板来改进 XRE 的效果,实验表明我们的算法在多语言环境下有显著的效果并且在新数据集上也表现优秀,代码和数据集已开放。
Apr, 2023
研究论文介绍了在混合语言场景中进行关系抽取的新任务 MixRE,并构建了混合语言数据集 MixRED,评估了现有的有监督模型和大型语言模型对于这一新任务的表现,并揭示了影响模型性能的因素以及提高模型性能的有望方向。
Mar, 2024
本篇论文介绍了我们参加 BioNLP Shared Tasks 2019 后在 Named Entity Recognition 和 Relation Extraction 方面的方法,我们的方法可以概括应用于不同语言的文本,包括英语和西班牙语,其中我们使用了语言特征,混合损失,多任务目标和令牌级合成策略以提高 Named Entity Recognition 的性能,使用基于字典的模糊和语义搜索来执行实体标准化, 最后,我们的 Relation Extraction 系统使用带语言特征的 Support Vector Machine,并在相关任务上表现出色。
Oct, 2019
将英文资源应用于日语的文档级关系抽取任务,构建了一个通过将英文数据集转化为日语的数据集,并将模型预测结果用于人工标注,减少了大约 50%的人工编辑步骤。该研究评估了现有的 DocRE 模型在所构建数据集上的性能,并揭示了日语和跨语言 DocRE 的挑战。
Apr, 2024
本文提出了一种基于多语言训练的实体和关系抽取框架 (mERE),使用两阶段多语言训练方法和多语言实体、关系抽取联合模型,通过语言通用聚合器 (LA) 和语言特定切换器 (LS) 分别缓解语言干扰并提高关系三元组的抽取效果,实验结果表明该方法优于单语言和多语言基线模型。
Jan, 2023
本文介绍一种统一 Relation Extraction 和 KB Embeddings 的学习框架,并证明在知识库更新任务中取得了显著进展。
Mar, 2019
本文提出了一种使用深度双语查询 - 文档表示来提高低资源跨语言文档检索性能的方法,并通过包括查询似然得分等额外特征,有效学习使用少量相关性标签为低资源语言对重新排序检索到的文档的模型。实验结果表明,本模型在 MATERIAL 数据集上优于竞争的基于翻译的对英斯瓦希里语、英语 - 塔加洛语和英语 - 索马里语跨语言信息检索任务的基线模型。
Jun, 2019
该研究提出了一种神经嵌入模型,利用双语词典将文字定义映射到双语目标词汇,探索不同的句子编码技术以及采用多任务学习和联合学习等关键学习策略来增强学习过程,实验结果表明,该模型在跨语言反向字典检索任务和双语释义识别问题上表现优异,并有效地解决了双语释义识别问题。
Aug, 2018
本文提出了一种新颖的神经架构,利用表格结构和二维卷积技术进行本地依赖特征池化,从而改善了以往的最佳性能,在不需要全局优化的前提下实现了端对端关系提取任务(包括命名实体识别和关系抽取),相较于之前最好的结果提高了约 1%的 F1 分数,并且训练和测试时间快 7 至 10 倍。
May, 2019