关键词open information extraction
搜索结果 - 51
- COLING利用语言增强的嵌入技术进行开放信息抽取
自然语言处理中的开放信息提取(OIE)通过引入预训练语言模型和语言特征,通过 Seq2Seq 预训练语言模型提升 OIE 架构性能,并在性能评估中获得了 24.9%、27.3% 和 14.9% 的改进。此外,还介绍了其他挑战,如利用语义依赖 - 开放信息提取仍然适用规则
本研究提出了一种创新的 APRCOIE 模型,专门用于处理中文文本,通过自动生成抽取模式,可以处理各种复杂多样的中文语法现象,与现有的中文 OIE 模型相比,APRCOIE 表现更好并显著扩展了 OIE 性能的界限。
- 利用谓词提示在开放式信息抽取中挖掘对偶性
提出了一种名为 DualOIE 的新型生成式开放信息提取模型,通过实现双重任务同时从句子中提取三元组并将其转化为句子的形式,有效地从句子中提取复杂三元组,实验证明 DualOIE 在两个基准测试以及美团数据集上表现最佳,Meituan 平台 - LOKE:基于链接开放知识提取的自动知识图谱构建
通过对 Wikidata 知识图谱使用 GPT 模型和 prompt engineering 的方法,我们研究了一个叫做 Linked Open Knowledge Extractor (LOKE) 的方法去解决 Open Informat - 基于预训练语言模型的高效开放信息抽取数据学习
通过将 OpenIE 任务形式巧妙地转换为 T5 模型的预训练任务形式,并引入锚点的创新概念,OK-IE 显著减少了对大量训练数据的需求,消除了模型收敛速度慢的问题,实验结果显示,相较于之前的 SOTA 方法,OK-IE 仅需 1/100 - 将表面事实与大规模知识图谱相关联
通过提出一个新的基准测试,该研究论文旨在解决通过评估协议以考量系统的能力,从而能在更细粒度的三元槽级别上测量事实链接性能,同时测量一个系统是否能识别到表面形式在现有知识图谱中没有匹配项。研究还表明,与准确链接到现有实体相比,检测出现有知识图 - 利用大型语言模型和一致的推理环境掌握开放信息提取任务
通过构建合适的推理环境,本文探索利用大型语言模型(LLMs)解决开放式信息抽取(OIE)问题,实验结果表明,相较于最先进的监督方法,我们的 6-shot 方法在标准 CaRB 基准上实现了 55.3 的 F1 分数,同时在 TACRED 和 - 大型语言模型改进开放信息抽取:关于演示不确定性的研究
通过提出各种上下文学习策略来增强大型语言模型的指示遵循能力,以及通过演示不确定性量化模块来增强生成关系的置信度,本论文评估了大型语言模型在改进开放信息抽取任务中的能力,并在三个开放信息抽取基准数据集上进行实验证明了我们的方法在数量和质量上能 - 使用生成翻译技术映射和清理开放通识知识库
本文提出了一种基于生成式翻译的方法,通过训练语言模型,将开放式知识库映射到现有知识库的固定模式中,以此解决了开放式知识抽取中存在的问题。实验证明,该方法在传统方法和生成式知识库构建之间找到了一个甜点,并且在避免后者的相关性噪声的同时,比前者 - 保留知识不变性:重新思考开放式信息提取的鲁棒性评估
本文提出了第一个模拟开放式信息抽取模型在真实世界中评估的基准测试,并在大规模测试中评测了几种常见 NLP 模型和常用的大语言模型,其中表现出色的模型也出现了最高 23.43 F1 得分的下降。
- 利用开放信息抽取提升少样本触发器检测的领域迁移能力
本研究提出了通过 open information extraction (OIE)系统所获取的主客体关系将触发器耦合在不同领域之间从而增强域迁移的性能,并在目标领域上使用 OIE 系统最后结合掩盖语言建模技术来降低负迁移。
- 开放信息抽取中,我们是否应该信任所有关系元组?关于猜测检测的研究
本文提出研究 OIE 中的猜测问题,并在 LSOIE 数据集上进行详细数据分析,最后提出了一个名为 OIE-Spec 的基础模型,解决了元组级别的猜测检测问题。
- 基于块的开放信息性提取
本研究提出了一种名为 SaC(Sentence as Chunk sequence)的新方法用于 Open Information Extraction(OIE)任务中的元组抽取,并使用基于 BERT 的简单模型 Chunk-OIE,在多个 - 基于部分可观测数据的句法鲁棒开放式信息抽取训练
本篇论文提出了一种基于多样性释义的句法丰富分布的鲁棒性训练框架,用于解决模型训练中句法分布现实世界的不完全可观察性挑战。该框架包含两种算法,旨在恢复表达转化的知识。该框架可以应用于其他句法部分可观察的领域。在基于框架构建的验证集 CaRB- - PIE-QG: 面向小数据语料库的无监督问句生成的释义信息提取
本文提出的 PIE-QG 方法使用开放信息提取(OpenIE)从释义段落中生成合成训练问题,并利用问题 - 答案对作为基于 BERT 的最先进 QA 系统的训练数据。在五个抽取式 QA 数据集上进行实验表明,我们的技术在没有外部参考数据源的 - 使用 OpenIE 丰富化关系抽取
本研究探讨了最近开放信息提取方法(OpenIE)如何通过将句子的结构信息编码为向量表示来改进关系提取(RE)的任务,实验结果表明,使用 OpenIE 以及 BERTFine-tune 的方法可以改善 RE 的效果。
- EMNLP开放信息抽取的语法多视角学习
本研究使用多视图学习将从开放域语句中提取的关系元组所需的句法信息从成分结构和依赖关系树映射到词级别的图中并进行拓展,达到更好地融合此类信息的目的。实验证明,这种多视图学习的方法与使用多种信息源构建元组是非常有效的。
- 联合开放知识库规范化和链接
本文提出了一个基于因子图模型的框架 JOCL,该框架整合了 OKB 规范化和链接两个关键任务,可以灵活地结合不同的信号,并能够扩展以适应任何新信号。在两个大规模 OIE 三元组数据集上进行的彻底实验研究表明,我们的框架在 OKB 规范化和链 - EMNLP通向广义的开放式信息抽取
本文介绍了一种名为 DragonIE 的 OpenIE 模型,它使用有向无环图的文本事实的极简表示来提高 Generalized OpenIE 的一般性能,并在 In-domain 和 out-of-domain 设置中表现出比以前的方法高 - 何时使用何种方法:一个深入比较的开放信息抽取系统的经验分析以支持下游应用
本文通过实证调查神经 OpenIE 模型、训练集和基准,旨在为用户选择最适合其应用的 OpenIE 系统提供帮助。我们发现,不同模型和数据集所做的不同假设对性能有显着影响,这使得选择最适合自己应用的模型至关重要。我们在下游复杂 QA 应用程