QueryNER: 电子商务查询的分割
本文介绍了在电子商务领域中运用 TripleLearn 模型训练框架,通过三个数据集迭代学习的方法解决了领域知识、训练数据和模型生产等方面的挑战,将识别品牌和产品类型等关键实体的 F1 得分从 69.5 提高到 93.3,并在 A/B 测试中显著提高了用户参与度和收入转化率,TripleLearn 框架可推广至更多工业应用领域,特别是类似数据基础和问题的电子商务行业。
Dec, 2020
通过大规模语言模型,命名实体识别可以达到更精细化的实体类型识别、零样本识别和语句检索等目标,但这些目标仍然需要进一步研究和探索。
Oct, 2023
提出使用具领域特色的语言特征的积极非标记学习算法来快速、有效扩展种子词典以帮助解决命名实体识别(NER)领域中的问题,该模型在产品描述数据集上的平均 F1 分数为 72.02%,比基线 BiLSTM 分类器提高 3.63%,尤其表现出更好的召回率(平均为 4.96%)。
May, 2020
本研究利用短语嵌入搜索构建高覆盖率的实体词典,并利用其生成具有高覆盖率的命名实体识别(NER)数据集。通过利用字典中候选短语与目标实体类型之间的嵌入距离来减少噪声,实现了弱监督 NER 模型的改进。在 6 个 NER 基准测试中,与当前弱监督 NER 模型相比,HighGEN 表现出更为优异的性能。
Oct, 2022
本研究提出了一种问答式自动生成命名实体识别数据的方法,使用生成的数据进行训练的模型在多项 NER 评测中表现优异,并在少样本 NER 中取得了新的最佳表现。
Dec, 2021
本研究主要介绍了一个公共的法律命名实体识别数据集 E-NER,它表明将通用英语文本数据集训练的命名实体识别模型应用于法律文本会导致重大的性能下降,与在 E-NER 数据集上训练和测试相比,F1 分数下降了 29.4%至 60.4%。
Dec, 2022
本文提出了一种新颖的端到端框架 MNER-QG,该框架可以同时执行基于 MRC 的多模态命名实体识别和查询接地任务,并通过查询的帮助提供识别实体类型和视觉区域的先验知识,进一步增强了文本和图像的表征。在 Twitter2015 和 Twitter2017 上进行了广泛的实验,实验结果表明,MNER-QG 在 MNER 任务上优于当前最先进的模型,并提高了查询接地性能。
Nov, 2022
我们通过将 NER 问题分成两个逻辑子任务来解决,即 Span Detection 和 Span Classification,进一步将两个子任务形式化为问答问题,使用两个较为简洁的模型针对每个子任务进行优化。与 OntoNotes5.0、WNUT17 和一个网络安全数据集的基准模型相比,我们的系统 SplitNER 表现出色,并且在 BioNLP13CG 数据集上取得了相当的性能,同时与 QA 基准模型相比,训练时间显著减少。我们的系统的有效性来自对 BERT 模型进行两次微调,分别用于 span detection 和 classification。该研究代码可在给定的 https URL 上找到。
Oct, 2023
命名实体识别(NER)旨在从文本中提取命名真实世界对象并确定它们的类型,本文首先概述了最近流行的方法,然后探讨了其他调查中较少涉及的基于图和变换器的方法,包括大型语言模型(LLMs)。其次,重点介绍了适用于稀缺注释数据集的方法。第三,我们评估了主要 NER 实现在不同类型的数据集上的性能,并对从未共同考虑过的算法进行了深入比较。我们的实验揭示了数据集特征如何影响我们比较的方法的行为。
Jan, 2024
命名实体识别(NER)模型在各种自然语言处理(NLP)任务中起着关键作用,包括信息抽取(IE)和文本理解。在学术写作中,对机器学习模型和数据集的引用是各种计算机科学出版物的基本组成部分,并需要准确的模型识别。尽管 NER 取得了进展,但现有的真实数据集未将细粒度类型(如 ML 模型和模型架构)视为单独的实体类型,因此基准模型无法识别它们。本文发布了一个包含 100 个手动注释的全文科学出版物的语料库,并提供了一个围绕 ML 模型和数据集的 10 种实体类型的基准模型。为了提供对 ML 模型和数据集如何被提及和利用的细致理解,我们的数据集还包含了与非正式提及相关的注释,例如 “我们的 BERT 模型” 或 “图像 CNN”。您可以在此 https URL 找到真实的数据集和代码以复制模型训练。
Nov, 2023