本论文提出使用二阶汇集技术作为图聚合技术,结合双线性映射和注意力机制的二阶汇集方法性能优越,在图分类任务中取得了显著的表现提升。
Jul, 2020
本文针对在深度卷积网络较早的层次有效引入二阶表示进行非线性建模的问题,提出了一种新的网络模型,并利用全局二阶池化 (GSoP) 对低到高层次进行二阶表示引入,使图像信息得到全面利用,实验结果表明,在 ImageNet-1K 数据集上,该网络模型优于同类网络,具有最先进的结果。
Nov, 2018
该文章提出了一种用于视觉任务的 MoNet 结构,它使用了二阶池化的双线性池化方法并通过子矩阵平方根层来解决维度问题,结合矩阵规范化和其他阶信息,实验结果表明,MoNet 在三个公开的图像分类数据集上表现良好,可实现与具有比其 96% 更少维度的编码特征相当的性能。
Feb, 2018
提出了一种泛化的 alpha-pooling 方法,可以在训练中学习汇编策略,同时引入一种有效的决策可视化方法来分析语义组成对决策的影响,实验证明这个方法可以在各种标准数据集上优于传统的的平均池化和双线性池化方法。
May, 2017
本研究提出两种紧凑的双线性表示方法,与完整的双线性表示具有相同的判别能力,但仅具有几千个维度。这些紧凑的表示通过对双线性池化的核分析导出,为其他紧凑池化方法的研究提供了平台。实验证明,提出的表示方法对于多个数据集的图像分类和少样本学习都具有实用价值。
Nov, 2015
本文提出一种新颖的卷积神经网络(CNN)类,它利用二阶统计量,可以形成协方差描述符单元(CDU),可以替代标准 CNN 的全连接层,并在参数少至 90%的情况下优于一阶 CNN。
Mar, 2017
通过将局部特征的二阶统计合并为高维双线性特征,使用低秩双线性分类器对协方差特征进行表示,同时提出分类器共分解方法进一步压缩模型,实现细粒度分类任务中公共因子和分类特定项的紧凑表示,可以在保持和超越已有方法精度的情况下获得数量级更小的模型。
Nov, 2016
该论文提出了一种基于高级特征的协方差汇集方法,即 Matrix Power Normalized Covariance (MPN-COV),并在 ImageNet 上的测试中表现出了显著的成果,特别是在 AlexNet,VGG-M 和 VGG-16 的情况下,MPN-COV 方法可以使性能提高超过 3%,并且与 ResNet-152 相媲美。
本研究提出了一种利用二阶信息和功率归一化的相似性学习网络,用于解决一种和少量样本学习问题,并在 Omniglot,miniImagenet 和 Open MIC 数据集上获得了最优结果。
本文尝试缩小理论优化与实际优化之间的差距,提出了一种可扩展的二阶预处理方法来优化深度模型,利用异构硬件架构进行训练,相比于常规一阶方法在机器翻译、语言建模、点击率预测和图像分类等任务中表现出优异的性能。
Feb, 2020