卷积字符网络
本文通过构建大规模数据集,比较了基于字级别的卷积神经网络与传统模型如词袋、n-gram 及基于词的卷积神经网络和循环神经网络在文本分类方面的表现。结果表明,基于字级别的卷积神经网络能够达到当前领域最佳或竞争性的结果。
Sep, 2015
本文提出了一种基于卷积特征映射中的字符模型的场景文本识别方法,可以避免基于分割的识别方法中的字符分割困难,并且可以识别未知单词,与现有方法相比具有相对较小的模型大小和优秀的性能表现。
Sep, 2017
本文介绍了一种新的自上而下的场景文本检测流程,提出了一种新颖的级联卷积文本网络(CCTN),利用其将前一个基于字符的检测转化为直接的文本区域估计,避免了多个自下而上的后处理步骤,并展现了其强大的鲁棒性和判别能力。
Mar, 2016
该研究提出了一种使用全卷积神经网络对自然图像中的文本进行检测的新方法,通过综合考虑本地和全局线索,以分层的方式定位文本线。通过组合显著地图和字符组件来估计文本行假设,并使用另一个卷积神经网络分类器预测每个字符的质心,以去除误判。该方法适用于处理多个方向、语言和字体的文本。在三个文本检测基准测试 MSRA-TD500、ICDAR2015 和 ICDAR2013 的性能方面,该方法实现了最先进的性能。
Apr, 2016
本文中提出了一种使用密集连接网络自动提取字符级特征的新方法,该方法不需要任何语言或任务特定的假设,在三个序列标注任务 - 槽填充、词性标注和命名实体识别 - 上表现出 robustness 和效力,以 96.62 的 F1-score 和 97.73%的准确度在槽填充和词性标注上获得了最先进的性能,同时在 NER 上可比的表现达到了 91.13 的 F1 得分
Jun, 2018
本文介绍了使用卷积神经网络(CNN)对大规模的作者归属进行分类,研究结果表明,基于字符级信号的 CNN 在不同领域的五个数据集中优于现有方法并首次将作者归属应用于 Reddit。
Sep, 2016
该研究提出了一种简单有效的框架,可以同时处理文字检测和识别,其中利用了新颖的文本对齐层、字符空间信息作为显式监督和端到端可训练的模型。通过联合培训,该方法在两个数据集上实现了新的最先进检测性能和表现提高。
Mar, 2018
本研究提出了一种利用卷积和循环层来高效编码字符输入的神经网络架构,用于文档分类任务,与仅具有卷积层的字符级模型相比,具有相当的性能而参数更少。
Feb, 2016
本文提出了一种新的框架,用于检测监督句子分类中的冗余。我们的模型结合字符感知卷积神经网络(Char-CNN)和字符感知循环神经网络(Char-RNN)形成卷积循环神经网络(CRNN)。我们比较了我们的框架与四个流行基准语料库上的最先进的文本分类算法,包括 Google-news 数据集、twenty-new-groups 数据流、Brown Corpus、question collection 的效果,并分析了三种不同的 RNN 隐性循环单元的性能和运行效率的影响。我们的模型在各个数据集上都取得了具有竞争力的精度和召回率,这表明我们的模型在文本分类中能够有效地降低监督句子分类的冗余。
Jun, 2017