实体中心信息抽取的神经网络方法
自然语言处理(NLP)领域中,命名实体识别(NER)作为从非结构化文本中提取结构化洞见的关键机制,在本文中得到全面探索,融合了基础原理和当代人工智能的进展。该研究从 NER 的基本概念开始,涵盖了从传统的基于规则的策略到当代的转换器架构的一系列技术,特别是突出了 BERT 与 LSTM 和 CNN 等集成算法。该论文强调了针对金融、法律和医疗等复杂领域定制的领域特定 NER 模型,并强调了它们的专业适应性。此外,研究还涉及强化学习、创新构建(如 E-NER)以及光学字符识别(OCR)在增强 NER 能力方面的相互作用。论文以实际领域为基础,阐明了 NER 在金融和生物医学等领域中不可或缺的作用,并解决了它们所面临的独特挑战。结论部分概述了开放性挑战和路径,将这项工作标记为进入 NER 研究和应用的全面指南。
Sep, 2023
本文概述了人工智能在教育领域的应用,针对学生反馈数据,提出了利用自然语言处理技术来识别教育基础设施、学习管理系统、教学实践和学习环境的改进方向,并重点介绍了情感标注、实体注释、文本摘要和主题建模等文本分析技术在教育领域的应用及其存在的挑战。
Jan, 2023
本文主要研究了最新的自然语言处理技术中,神经网络和语言模型在命名实体识别和关系抽取方面的应用以及它们在训练过程中面临的一些挑战。我们发现,预训练的语言模型对发现未曾见过的命名实体表现良好,但对于未曾见过的关系则有待加强,因此模型的理解能力仍存在提升空间。
Jun, 2022
应用自然语言处理方法,利用三种无监督模型 (Latent Dirichlet Allocation、Word2Vec 和 Transformer) 分析大规模特定主题科学文章的能源相关内容并实现文本的信息提取和知识发现,同时展示了能源材料研究中潜在的主题和概念,并开发了文档分类方法以加速能源研究和材料开发工作。
Feb, 2024
本文介绍了人工智能规划和自然语言处理之间的相互作用,讨论了四个领域:基于规划的文本理解、基于规划的文本生成、基于文本的人机交互和基于文本的可解释规划,并探讨了一些潜在的未来问题。
Feb, 2022
本文分析了两种最近提出的实体中心模型在一个实体链接任务中的性能表现,这些模型在低频率实体上表现优异,并且自然地促进了良好的架构决策,然而,它们并没有真正构建实体表示,并且对语言上下文的利用效果不佳,这些负面结果强调了对模型进行分析的需要,以测试特定架构的动机是否体现在模型部署时的行为中。
May, 2019
本文提出了一种基于神经元的端到端模型来联合提取实体和它们的关系,该模型不依赖于外部自然语言处理工具,而是集成了大量的预训练语言模型, 在三个领域的五个数据集上,我们的模型可以与最先进的性能相提并论,有时甚至具有更高的性能。
Dec, 2019
本研究使用自然语言处理技术,旨在解决获取发展中国家公司财务数据的问题。通过构建专门针对发展中国家金融文本数据的数据集,我们采用基于 Transformer 的 T5 模型进行文本到文本的处理,同时进行命名实体识别和关系提取,达到 92.44% 的准确率、68.25% 的精确度和 54.20% 的召回率。同时,我们还使用 SpaCy 进行序列处理,包括预训练和微调模型的命名实体识别以及使用 SpaCy 的依赖解析器输出和一些启发式方法来确定实体关系,最终实现了 84.72% 的准确率、6.06% 的精确度和 5.57% 的召回率。
Mar, 2024