简历中的命名实体识别
本研究介绍了一项新任务:Dynamic Named Entity Recognition(DNER),提供了一个框架,以更好地利用上下文来评估算法提取实体的能力。DNER 基于两个数据集,DNER-RotoWire 和 DNER-IMDb,我们评估了基线模型并提出了与此新任务相关的问题和研究方向的实验。
Feb, 2023
本文综述了深度神经网络在命名实体识别方面的应用,相对于传统的基于特征工程和监督或半监督学习算法的实体识别方法,神经网络在该领域中取得了更好的效果,并表明吸收过去的基于特征的 NER 系统的一些经验教训可以进一步提高性能。
Oct, 2019
自然语言处理(NLP)领域中,命名实体识别(NER)作为从非结构化文本中提取结构化洞见的关键机制,在本文中得到全面探索,融合了基础原理和当代人工智能的进展。该研究从 NER 的基本概念开始,涵盖了从传统的基于规则的策略到当代的转换器架构的一系列技术,特别是突出了 BERT 与 LSTM 和 CNN 等集成算法。该论文强调了针对金融、法律和医疗等复杂领域定制的领域特定 NER 模型,并强调了它们的专业适应性。此外,研究还涉及强化学习、创新构建(如 E-NER)以及光学字符识别(OCR)在增强 NER 能力方面的相互作用。论文以实际领域为基础,阐明了 NER 在金融和生物医学等领域中不可或缺的作用,并解决了它们所面临的独特挑战。结论部分概述了开放性挑战和路径,将这项工作标记为进入 NER 研究和应用的全面指南。
Sep, 2023
我们训练了一个命名实体识别(NER)模型来筛选瑞典招聘广告中的各种有用信息(例如,求职者所需的技能)。该模型是通过对 KB-BERT 进行微调获得的。我们面临的最大挑战是创建一个带标签的数据集,这需要手动注释。本文概述了我们采用的方法,以提高注释过程的效率并确保数据质量。我们还报告了所得模型的性能。
Oct, 2023
命名实体识别(NER)旨在从文本中提取命名真实世界对象并确定它们的类型,本文首先概述了最近流行的方法,然后探讨了其他调查中较少涉及的基于图和变换器的方法,包括大型语言模型(LLMs)。其次,重点介绍了适用于稀缺注释数据集的方法。第三,我们评估了主要 NER 实现在不同类型的数据集上的性能,并对从未共同考虑过的算法进行了深入比较。我们的实验揭示了数据集特征如何影响我们比较的方法的行为。
Jan, 2024
通过在 Apache Spark 之上重新实现 Bi-LSTM-CNN-Char 深度学习架构,我们提出了一个单可训练的命名实体识别(NER)模型,该模型在七个公共生物医学基准测试中获得了新的最优结果,而不使用像 BERT 这样的重型上下文嵌入。该模型在生产级别代码库中作为开源 Spark NLP 库的一部分免费提供,并且可以扩展以支持其他人类语言,而不需要更改代码。
Nov, 2020
使用 BERT 和 transformer 层的简单和有效的 Named Entity Recognition 方法在计算机科学和生物医学领域的三个基准数据集上优于当前最先进技术,无需外部资源或特定数据增强。
Mar, 2022
本文提出了一种多任务学习框架,将标签依赖关系融入基于机器阅读理解的命名实体识别,通过使用自注意力模块来捕捉标签之间的依赖关系,实现更好的性能。
Sep, 2023