自然语言处理中一篇有关无监督的句法结构预测的研究,通过引入两层层次循环神经网络模型对词语与词组、词组与句子的组成进行建模,利用预训练无监督解析器和下游自然语言处理任务微调的方法,在 CoNLL-2000 数据集上取得了可观的性能提升,对无监督的句法结构发现有推进作用,并为进一步的语言理论研究提供了可能性。
Sep, 2023
提出一种新颖的基于片段级别的文本分割框架,通过 LSTM 技术构建短语表示,并利用循环神经网络模型迭代确定段落最左侧的片段。实验证明,在 3 个数据集上,该方法在句法分块和中文词性标注方面取得了显著优于先前最佳模型的表现,并在建模长期依赖方面具有有效性。
Apr, 2021
通过使用通用的基于 Bi-LSTM 的神经序列标注模型,其应用于广泛的自然语言处理任务和语言,结合从数据中提取的形态、语义和结构提示信息以进行有根据的预测,本研究在 8 个基准数据集上对其性能进行了评估,其结果在 4 个数据集上取得了最佳的表现。
Aug, 2018
本文研究了构建有效和高效神经序列标记系统的设计挑战,通过复现 12 个模型,在三个基准测试中进行系统模型比较,消除现有文献中的误解和不一致的结论,并得出了一些对从业者有用的实用结论。
Jun, 2018
本研究提出了一种新颖的神经网络框架,将预先训练好的字级知识和字符感知神经语言模型相结合,利用转移学习技术实现不依赖于额外监督信号的序列标注任务,并在基准数据集上通过大量实验验证了其有效性和高效性。
Sep, 2017
本研究对比了不同状态下的卷积神经网络模型,并提出了一个用于学习内部结构的单词表示的广域漏斗型卷积神经网络 (IntNet),在六种序列标记数据集上的实验结果显示,IntNet 模型显著优于其他字符嵌入模型,并在不依赖任何外部知识或资源的情况下取得了新的最佳表现。
Oct, 2018
提出了一种能够适用于多种自然语言处理任务(包括词性标注、Chunking、命名实体识别和语义角色标注)的统一神经网络架构和学习算法,该系统可以通过学习大量无标注训练数据的内部表示,避免任务特定的工程方法,并构建一个具有良好性能和最小计算要求的可用标记系统。
Mar, 2011
本文提出了一种新颖的神经网络框架,利用门控组合神经网络和 LSTM 语言评分模型,消除上下文窗口,可以利用完整的分词历史,产生分布式表示,从而实现中文分词,并在基准数据集上进行实验,结果不需要使用现有方法的特征工程,获得了与现有最先进方法相当甚至更好的性能。
Jun, 2016
本文探讨了一种半监督的方法,通过添加双向语言模型的预训练上下文嵌入到 NLP 系统中用于序列标注任务,相比其他转移学习或添加标记数据和任务特定词典的方法,在命名实体识别和块分割等任务上实现了最先进的结果。
Apr, 2017
本文研究了 7 种不同的数据表述方式,探究数据表述对于识别名词短语块的影响,结果表明表述方式对于分块的性能有一定影响,但是配备最适宜的数据表述方式,我们的基于记忆的分块学习器能够改进标准数据集的最佳分块结果。
Jul, 1999