使用生成对抗网络和空间变换网络 (STNs) 实现将前景对象和背景图像自然组合的研究,提出了迭代 STN 变形机制和逐步训练策略,适用于高分辨率图像。
Mar, 2018
通过极坐标变换网络 (PTN),将等变性的概念从旋转扩展到卷积神经网络中的平移和旋转,并在旋转后的 MNIST 数据集和 SIM2MNIST 数据集 (包括平移、旋转和缩放的 MNIST 的变体) 上实现了最先进的结果设置。
Sep, 2017
引入一种新的可学习模块 ——Spatial Transformer,能够在现有的卷积网络结构中显式地允许对数据进行空间操作,从而使得模型得以学习对于平移、缩放、旋转以及基于更一般的扭曲变换的不变性,其模型表现在多个基准测试数据集上达到了最先进的水平。
Jun, 2015
本文提出了一种新的空间 - 时间变换网络的范例来改善长期交通预测的准确性,其中使用图神经网络和自注意机制来动态建模交通数据中的有向空间相关性,并利用跨多个时间步骤的长程双向时间依赖性。实验证明,该模型在 Real-world 数据集上预测交通流量方面的性能要好于现有工作。
Jan, 2020
本文介绍了一种学习型模块(VTN,即体积变形网络),以预测通道级扭曲场,从而在空间和通道层面上重新配置 CNN 特征,改善空间不变性技术在大规模对象识别中的限制。经实验证明,VTN 不断提升模型性能和图像识别和检索的精度。
Jul, 2020
使用具有等变性函数的规范坐标系构建了一种不同 iable 的图像到图像映射,称为 ET(Equivariant Transformers),并证明了它能够在提高模型强健性方面进行灵活组合,从而使得在现实世界的图像分类任务中,相对于 ResNet 分类器,ET 能够在数据有限情况下提高最多 15% 的分类效果而只增加不到 1% 的模型参数。
Jan, 2019
本文研究了传统 Lucas & Kanade 算法和新兴的空间变换网络(STN)之间的理论联系,提出了逆合成空间变换网络(IC-STNs)并证明其在图像对齐和联合对齐分类问题上具有优异的性能。
Dec, 2016
该研究提出了一种新的可微分图像转换采样方法,其改进了现有采样方法而导致在图像对齐等深度神经网络训练任务中性能得到了显著提升。
本文提出了适用于任意网络架构的可扩展张量网络(STN),通过一种数据驱动的方法动态和自适应地调整模型大小和分解结构,从而达到更高的压缩性能和灵活性,综合实验结果表明其在参数效率方面表现优异。
May, 2022
该研究提出了在卷积神经网络的训练阶段中随机转换特征图以增强模型对空间变换的不变性,从而显著提高了 CNN 在图片识别等许多基准任务上的表现。
Nov, 2019