基于字符级别和多通道卷积神经网络的大规模作者归属性识别
本文通过构建大规模数据集,比较了基于字级别的卷积神经网络与传统模型如词袋、n-gram 及基于词的卷积神经网络和循环神经网络在文本分类方面的表现。结果表明,基于字级别的卷积神经网络能够达到当前领域最佳或竞争性的结果。
Sep, 2015
本文中提出了一种使用密集连接网络自动提取字符级特征的新方法,该方法不需要任何语言或任务特定的假设,在三个序列标注任务 - 槽填充、词性标注和命名实体识别 - 上表现出 robustness 和效力,以 96.62 的 F1-score 和 97.73%的准确度在槽填充和词性标注上获得了最先进的性能,同时在 NER 上可比的表现达到了 91.13 的 F1 得分
Jun, 2018
本研究描述了一种仅依赖字符级输入的简单神经语言模型,该模型利用卷积神经网络和字符级公路网络作为输入,并将结果给予一种长短时记忆递归神经网络语言模型作为输出,该模型可以用较少的参数占据现有最先进的地位。此外,该模型表现出色的证明了许多语言所需的字符输入已经足够进行语言建模,且可以从字符组成的部分编码的单词表示中得到语义和字形信息。
Aug, 2015
通过把一个字符级 RNN 语言模型的输出层划分成几个独立的预测子模型,每个子模型代表一个作者,而循环层被所有子模型共享,本文提出了一种新的方法,该方法允许循环层模拟整个语言而不会产生过拟合,同时输出选择反映其作者风格的潜在模型方面,该方法在四种语言中两次排名第一,证明了它的有效性。
Jun, 2015
本文研究了使用卷积神经网络的文本分类的新基准模型,在这些模型中,将文档作为三维张量表示进行输入,从而实现了句子级分析,经实验证明该模型在长文档特别表现良好。
Jan, 2023
该论文提出了一种基于字符级卷积神经网络的转移学习方法,用于语意分类表格数据,并开发了一个名为 SIMON 的工具包,它可以在自然语言处理中进行分类、垃圾邮件分类和社交媒体年龄预测等任务。
Jan, 2019
本文研究字符级别模式识别神经网络所学习的规律以及相对于手动标注的词语分割的重叠性,并使用卷积神经网络和双向长短期记忆网络对三种不同的语言进行形态标记任务的评估和比较,证明这些模型可以隐式地发现可理解的语言规则。
Aug, 2018
本文介绍了一种新的基于 VDCNN 的文本处理体系结构,通过使用 29 个卷积层,仅使用小型卷积和池化操作,该模型的性能得到了提高,并且在多个公共文本分类任务上,相对于现有模型,且在文本处理中使用非常深的卷积神经网络实现了最先进水平。
Jun, 2016
本文提出了 CharNet 模型,是一种单阶段模型,能够同时处理文本检测和识别,输出包围框和对应字符标签,并采用迭代式字符检测方法,在三个标准基准测试中表现出对现有方法显著的性能改进。
Oct, 2019
本研究提出了一种利用卷积和循环层来高效编码字符输入的神经网络架构,用于文档分类任务,与仅具有卷积层的字符级模型相比,具有相当的性能而参数更少。
Feb, 2016