融合离散特征和神经网络特征用于序列标注
本研究提出了一种新颖的神经网络框架,将预先训练好的字级知识和字符感知神经语言模型相结合,利用转移学习技术实现不依赖于额外监督信号的序列标注任务,并在基准数据集上通过大量实验验证了其有效性和高效性。
Sep, 2017
本文提出了用于中文分词和词性标注任务的特征丰富的神经模型,使用卷积和池化层模拟传统离散特征模型的特征模板,并结合循环层使用长距离依赖信息。实验结果表明,该模型的效果显著。
Nov, 2016
本文中提出了一种使用密集连接网络自动提取字符级特征的新方法,该方法不需要任何语言或任务特定的假设,在三个序列标注任务 - 槽填充、词性标注和命名实体识别 - 上表现出 robustness 和效力,以 96.62 的 F1-score 和 97.73%的准确度在槽填充和词性标注上获得了最先进的性能,同时在 NER 上可比的表现达到了 91.13 的 F1 得分
Jun, 2018
该研究综述了自然语言处理中混合和集成深度学习模型的广泛探索,揭示了它们在情感分析、实体识别、机器翻译、问答、文本分类、生成、语音识别、摘要生成和语言建模等多种任务中具有的变革潜力。研究系统地介绍了每个任务,从循环神经网络 (RNNs) 到基于 Transformer 的模型如 BERT,阐述了它们的性能、挑战和计算需求。强调了集成技术的适应性,突出了它们增强各种自然语言处理应用的能力。还讨论了在实施过程中的挑战,包括计算负载、过拟合和模型解释复杂性,以及解释性和性能之间的权衡。作为精炼而宝贵的指南,该综述综合了有关任务、模型结构和挑战的见解,为研究人员和从事自然语言处理的从业者提供了一个综合的视角,以通过集成深度学习在自然语言处理中推进基于语言的应用。
Dec, 2023
本文提出了一种新颖的神经网络体系结构,该体系结构利用了双向 LSTM,CNN 和 CRF 的组合,自动地从单词和字符级别表示中受益。我们的系统是真正的端到端的,不需要特征工程或数据预处理,因此适用于广泛的序列标注任务。我们在两个数据集上对我们的系统进行了评估,即 Penn Treebank WSJ 语料库用于词性标注和 CoNLL 2003 语料库用于命名实体识别。我们在这两个数据集上获得了最先进的性能 - 词性标注的准确率为 97.55%,命名实体识别的 F1 值为 91.21%。
Mar, 2016
研究论文提出了使用神经网络来获得离散表示的机器语言的想法,并指出相比连续特征表示,离散语言表示在解释性、泛化能力和鲁棒性方面具有多个优势。
Jan, 2022
本文探讨了一种半监督的方法,通过添加双向语言模型的预训练上下文嵌入到 NLP 系统中用于序列标注任务,相比其他转移学习或添加标记数据和任务特定词典的方法,在命名实体识别和块分割等任务上实现了最先进的结果。
Apr, 2017
本文提出了一种新颖的混合方法,通过协同无监督和有监督学习,来提高自然语言处理任务建模的准确性。通过集成无监督模块和有监督模块,该方法在文本分类和命名实体识别方面取得了最新技术结果,为更高效和强大的自然语言处理系统铺平了道路。
Jun, 2024