- COTET:用于知识图谱实体类型的跨视图最优传输
通过将类型聚类信息有效地融入实体和类型的表示中,Cross-view Optimal Transport(COTET)方法通过多视图生成和编码、交叉视图最优传输和基于汇聚机制的实体类型预测模块,在知识图谱实体类型推理任务中展现出了显著的效果 - AAAI自然与工程领域中的种子引导细粒度实体分类
研究了在科学和工程领域中基于种子引导的细粒度实体类型的任务,该任务利用名称和少量种子实体作为唯一的监督,旨在将新的实体提及分类为已知和未知类型,并提出了 SEType 方法来解决该问题。
- EMNLP预训练的语言模型是否学习到了法人实体类型?
研究了语言模型在领域特定知识的获取和法律知识评估任务,比较了不同类型、长度和语义或语法信号的实体,不同语言模型预训练语料库和架构对于实体类型的性能影响,并发现 Llama2 在优化提示模板后表现良好,法律导向的语言模型显示性能不一致,存在的 - ACLPromptNER: 命名实体识别的提示定位与分类
本研究提出了将实体定位和实体类型识别整合到 prompt learning 中的双插槽多提示模板,可在平行预测插槽上提取所有实体,并设计了一种动态模板填充机制来分配插槽的标签。在各种设置下进行实验,我们的模型在交叉域 few-shot 设置 - EnCore: 使用共指链预训练实体编码器
本文提出使用共指链作为一种额外的监督信号,在细颗粒实体类型识别的领域中,使用预训练策略可以提高最先进的技术水平。
- UNTER: 增强预训练语言模型的统一知识接口
本研究提出了一种名为 UNTER 的统一知识接口,它能够将结构化知识和非结构化知识结合在一起,从而进一步提升预训练语言模型在自然语言处理任务中的性能,特别是在低资源情况下实体类型识别等方面。
- 基于 Continuous Prompt Tuning 的文本蕴含模型在电子商务实体类型识别中的应用
为应对电子商务领域商品标题语言特点与新实体的问题,我们提出了基于连续提示调整、融合嵌入的文本蕴含模型来进行电商中实体类型标注,模型改进了 BERT 模型的平均 F1 得分约 2%。
- EMNLP基于 Transformer 的实体类型在知识图谱中的应用
本研究提出了一种基于 Transformer 的实体类型推断方法 (TET),通过对实体邻居内容的有效编码,利用三种不同机制 (本地 Transformer、全局 Transformer 和上下文 Transformer) 来推断实体的缺失 - 去噪增强远程监督的超细实体类型识别
本文提出一种新颖的超细实体类型模型,其具有去噪能力,通过建立一个噪声模型对输入的上下文和实体类型标签进行估计,从输入中减去估计噪声以恢复更可靠的标签,并采用双编码器结构训练去噪数据,噪声模型和实体类型模型迭代训练,以提高彼此的性能,在 Ul - EMNLP课程学习中的生成实体类型
通过预训练语言模型和课程学习的方法,我们提出了一种新的生成式实体类型标注(GET)范例,其表现优于现有的实体类型标注模型。
- COLINGKoCHET:针对实体任务的韩国文化遗产语料库
提出 KoCHET,一个为韩国文化遗产命名实体识别、关系提取和实体类型识别中提供实用认可的韩国文化遗产语料库,涵盖了所有与韩国文化遗产相关的实体类型,可供国内外研究者使用,并提供了实践洞见和统计语言分析,自由获取。
- 利用图遍历和实体描述进行实体类型预测
提出了一种利用 RDF2vec 不同图形遍历策略和实体的文本描述来进行实体打标的新方法(GRAND)。实验表明,引入上下文信息的方式和生成图行走序列的策略对于实体打标在 KG 中有重要影响。该方法在 DBpedia 和 FIGER 基准数据 - AAAIDHGE:双视图超关系知识图嵌入用于链接预测和实体类型划分
提出了使用双视图超关系知识图谱的表示学习模型,其中包括以实体为中心的超关系示例视图和以概念为中心的超关系本体视图。将该模型应用于链接预测和实体类型预测任务,并基于 Wikidata 和医疗数据构建了两种双视图超关系数据集。通过采用 DHGE - EMNLP你的模型是否合理地分类实体?诊断和缓解实体类型中的虚假相关性
该研究针对实体类型推断中的假关联问题,通过定义模型偏差种类并提出反事实数据增强方法,改善模型泛化能力。实验结果表明,该方法在提高模型性能方面具有一致的效果。
- ACL拆分元学习用于少样本命名实体识别
本文介绍了一种分解元学习方法,通过元学习逐步解决了少样本命名实体识别中的少样本跨度检测和少样本实体类型划分问题,并在各种基准测试中证明了该方法优于以往方法的卓越性能。
- 知识图谱中基于上下文的实体类型识别
本研究提出了一种利用上下文信息进行知识图谱实体类型推理的新方法,设计了两种推理机制:N2T 和 Agg2T,并提出了一种新的损失函数以减轻训练期间的误测问题。实验证明了该方法的有效性。
- EMNLP基于标签推理的细粒度实体类型判定
该论文提出了 Label Reasoning Network (LRN),通过发现和利用数据中隐含的外在和内在依赖关系知识,从而顺序推理细粒度实体标签,有效地建模、学习和推理复杂标签依赖关系,从而解决实体类型分类的挑战。实验结果表明,LRN - KDD联合嵌入实例和本体概念的知识库通用表示学习
该论文提出了一种新颖的双视图知识图嵌入模型,JOIE,旨在产生更好的知识嵌入并实现依赖于多视图知识的新应用,其通过跨视图和内视图建模来学习知识库的多个方面,其中跨视图模型用于建立本体概念和其对应的实例视图实体之间的关联。
- ACL大型本体多语言提取
本文介绍了 LOME 系统,用于执行多语言信息提取,通过 FrameNet 解析器标识文本实体和事件提及的跨度,执行指代消解、细粒度实体类型和事件之间的时间关系预测,构建事件和实体关注的知识图谱。LOME 可用作 Docker 容器和网络演 - ACL通过对比学习提高预训练语言模型对实体和关系理解的能力 - ERICA
该论文提出了一种对文本中的实体和关系进行深入理解的新型对比学习框架 ERICA,可显著提高预训练语言模型在低资源环境下的关系提取,实体类型和问题回答等多个语言理解任务的性能表现。