本研究提出两种紧凑的双线性表示方法,与完整的双线性表示具有相同的判别能力,但仅具有几千个维度。这些紧凑的表示通过对双线性池化的核分析导出,为其他紧凑池化方法的研究提供了平台。实验证明,提出的表示方法对于多个数据集的图像分类和少样本学习都具有实用价值。
Nov, 2015
本文提出了一种因子化双线性汇聚模型,与现有模型相比具有更好的融合实体和关系的效率,并且可以控制模型复杂度,取得了实际数据集上的最先进的表现。
Aug, 2020
本文提出了一种新颖的模型,使用交叉层双线性池化和分层双线性池化框架来帮助解决细粒度视觉识别的问题,同时在细粒度识别数据集上达到了最先进水平。
Jul, 2018
该文章提出了一种用于视觉任务的 MoNet 结构,它使用了二阶池化的双线性池化方法并通过子矩阵平方根层来解决维度问题,结合矩阵规范化和其他阶信息,实验结果表明,MoNet 在三个公开的图像分类数据集上表现良好,可实现与具有比其 96% 更少维度的编码特征相当的性能。
Feb, 2018
本文研究了归一化二阶卷积特征的几种方式,其中以矩阵平方根归一化和元素平方根加 L2 归一化的方案为最佳,改进后在细粒度识别数据集上性能提高了 2-3%。研究还发现,在边界情况得到合理处理后,用于计算梯度的数值方法与网络的最终准确性关系较小。本文最终提出一种快速实现效果相当的固定迭代次数方法,可用于 GPU 上进行实现。
Jul, 2017
提出了一种泛化的 alpha-pooling 方法,可以在训练中学习汇编策略,同时引入一种有效的决策可视化方法来分析语义组成对决策的影响,实验证明这个方法可以在各种标准数据集上优于传统的的平均池化和双线性池化方法。
May, 2017
本文提出基于因式分解的二次双线性层来建模 CNN 中的的成对特征交互,通过将非线性结构的复杂性纳入 CNN 中,使我们的 FB 层只需线性增加参数并具有可负担的计算成本,并采用 DropFactor 这种特殊的方法来进一步降低 FB 层的过度拟合风险,在多个数据集上证明了该模型的有效性,其中包括 CIFAR-10,CIFAR-100 和 ImageNet,较其他各种最先进的深度模型表现出更优越的结果。
Nov, 2016
该论文提出了一种称为 Bilinear 卷积神经网络(B-CNNs)的神经网络模型,通过使用两个卷积神经网络所提取的特征的外积计算来表示图像,并以平移不变的方式捕捉局部特征交互,并在多项图像分类数据集上展示了其在识别精度和速度等方面的优越性。
Apr, 2015
该研究提出了一种低秩双线性池化的方法以提高多模式学习的效率,并在可视化问答任务中取得了优异的结果,具有更好的经济性特性。
Oct, 2016
本文提出了一种深度双线性变换(DBT)块,可以在卷积神经网络中深度堆叠,以学习细粒度图像表示,其利用双线性变换在每个语义组内计算成对交互的方式,显著减轻了计算成本,能够在 CUB-Bird、Stanford-Car 和 FGVC-Aircraft 等多个细粒度图像识别基准测试中取得新的最佳表现。
Nov, 2019