使用预训练字向量对卷积神经网络进行训练,支持 fine-tuning 并结合静态和动态字向量,以提高句子级分类准确率并在多项基准测试中超越现有技术。
Aug, 2014
本文提供了对现有技术的卷积神经网络分析和拓扑构建的全面概述,并描述和评估了一些层次分类器。此外,本文还开发了一种可视化分类错误的新方法,并在 CIFAR-100 上量化了一些结果,如在精度方面较小批量大小、平均集成、数据增强和测试时间转换等的积极影响。本文还开发了一个模型,它只有 100 万个学习参数,适用于 32x32x3 和 100 类输入,并在基准数据集 Asirra、GTSRB、HASYv2 和 STL-10 上击败了现有技术。
Jul, 2017
本文研究了使用卷积神经网络的文本分类的新基准模型,在这些模型中,将文档作为三维张量表示进行输入,从而实现了句子级分析,经实验证明该模型在长文档特别表现良好。
Jan, 2023
通过对卷积神经网络 CNNs 模型对文件图像分类任务的研究,我们发现使用剪切变形的数据扩增和一个针对更大输入图像设计的架构,可以超过基准数据集的现有技术,并且我们发现使用 RVL-CDIP 训练的 CNNs 可以学习区域特定的布局特征。
Aug, 2017
本文提出了一种名为 TextConvoNet 的基于卷积神经网络的体系结构,不仅可以提取句内 n-gram 特征,还可以捕获输入文本中的句间 n-gram 特征,进而优于现有的文本分类用的机器学习和深度学习模型。
Mar, 2022
本研究提出了一种有利于评估不同卷积神经网络体系结构的系统性语言,该语言能够在训练前进行比较,本研究使用该语言在两个具体的基于计算机视觉的物理问题上,解决了事件顶点查找和强子多重性分类问题,同时提取了优化网络架构中的几个架构属性,使用机器学习模型对其进行了预测。
Jan, 2020
本文研究了卷积神经网络在文本处理中的工作原理。作者发现,使用不同的神经元激活模式可以捕获不同的语义类别的 N-gram,并且 Max-pooling 操作可以区分出重要的 N-gram。最后,作者给出了基于研究结果的实际应用,包括模型可解释性和预测可解释性。
Sep, 2018
本文旨在研究在细粒度识别方面 CNN 输出对图像转换和噪声的敏感性,回答了如何预测 CNN 的敏感度并增强其稳健性,使用常用的 CNN 架构 (AlexNet、VGG19、GoogleNet) 进行了广泛的经验灵敏度分析,并表明了 VGG19 相比于 AlexNet 和 GoogleNet 更具有鲁棒性,但是即使对于 VGG19,微小的强度噪声也会导致 CNN 性能的巨大变化。
Oct, 2016
我们的研究工作提出了一种用于句子分类的 Squeeze-and-Excitation 卷积神经网络(SECNN),该网络利用多个 CNN 的特征图作为句子表示的不同通道,并结合通道注意机制(SE attention mechanism)学习不同通道特征的注意权重,实现了在句子分类任务上先进的性能。
Dec, 2023
本研究中提出一种使用小型元网络学习文本处理的上下文敏感卷积滤波器的方法,并将该框架进一步推广到模拟句子对,通过可视化学习的上下文敏感滤波器验证了所提出的框架的有效性。
Sep, 2017