提出了一种简单而有效的方法,Informed Named Entity Recognition Decoding (iNERD),将命名实体识别视为一种生成过程,利用近期生成模型的语言理解能力,并采用了基于信息提取的有限文本生成的解码方案,以提高性能和消除幻觉风险,我们在合并的命名实体语料库上训练了模型,评估了五个生成语言模型在八个命名实体识别数据集上的表现,并取得了显著的结果,特别是在未知实体类别集的环境中,展示了该方法的适应性。
Aug, 2023
本研究提出了一种基于上下文学习的命名实体识别方法,通过 PLMs 中的元函数,仅使用少量的示例即可识别新类型的实体,并使用元函数预训练算法将上下文 NER 能力注入 PLMs,实验证明该方法可以显著优于 PLMs + 微调对照组。
May, 2023
本研究利用短语嵌入搜索构建高覆盖率的实体词典,并利用其生成具有高覆盖率的命名实体识别(NER)数据集。通过利用字典中候选短语与目标实体类型之间的嵌入距离来减少噪声,实现了弱监督 NER 模型的改进。在 6 个 NER 基准测试中,与当前弱监督 NER 模型相比,HighGEN 表现出更为优异的性能。
Oct, 2022
提出了一种名为 EER 的新方法,该方法通过改进传统 EBR 的双编码器模型、引入对比学习和生成式事件三元组提取方案,以及相关学习实现事件关联查询编码器优化,提高了实时检索性能,有望为信息检索领域带来新的视角。
Apr, 2024
本文介绍了一种基于 GPT 模型的 NER 算法 ——GPT-NER,它通过将序列标注任务转化为生成任务来弥补 LLMs 在 NER 任务上的缺陷,并提出自我验证策略以解决 LLMs 易出现的幻觉问题。实验结果表明,该算法表现与有监督算法相当,在低资源学习中表现显着优于有监督模型,具有实现限制样本 NER 应用的能力。
Apr, 2023
本文研究使用预训练的语言模型作为固定的特征提取器,并限制下游任务模型没有额外的序列建模层,探索在域内训练后的上下文词嵌入中携带的附加信息。结果发现,BioELMo 在编码实体类型和关系信息方面优于 BioBERT。
Apr, 2019
本文提出了一种基于预训练词嵌入的全无监督命名实体识别模型,使用高斯隐马尔可夫模型和深度自编码高斯混合模型进行实体跨度检测和类型预测,并基于强化学习设计实例选择器,通过神经网络消除杂乱注释,实现了无需使用任何标注词典或语料库,表现出色。
Aug, 2019
本篇文章研究使用知识图谱中的实体信息是否有助于基于 BERT 的实体检索模型,结果表明使用实体信息的 BERT 模型在复杂自然语言查询和属性筛选等实体相关查询任务中相比传统 BERT 模型具有更好的推荐效果,并且使用该模型可以在数据不足的情况下进行微调以实现对实体搜索的数据有效训练。
May, 2022
将探测分类器框架应用于文本级别信息提取,研究表明,通过深度神经网络模型得到的表示可以在一定程度上改进参数检测和标签化,并略微提升事件级别任务,尽管在连贯性和事件类型预测方面会有一些权衡,同时在处理文件长度和跨句子语篇方面仍存在一定的困难。
Oct, 2023
本文提出两种弱监督的跨语言实体标识方法,分别基于注释投影和词嵌入,无需使用目标语言的人工注释数据。同时,我们设计了两种协同解码方案,将两个基于投影的方法的输出相结合,评估表明这种组合性的方法优于其他三种弱监督方法。
Jul, 2017