- IJCAI无损特征反射的显著物体检测
本研究提出了基于对称全卷积网络的独特特征学习框架,该方法将无损特征反射的指导下,结合显著目标的位置信息、语境和语义信息,用于更精确地进行显著性预测,并使用新的结构损失函数来辅助预测边缘和保证空间一致性。实验表明,该方法在七个显著性检测数据集 - CVPR部分人员再识别的深度空间特征重构:无需对齐的方法
本文提出了一种基于完全卷积神经网络的快速准确的匹配方法,结合了深度空间特征重建和字典学习模型来映射不同的部分人物图像以解决局部人物再识别问题,并在多个数据集上进行的实验证明了该方法的有效性和效率。
- 构造感知完全卷积神经网络的对抗学习用于地标定位
通过结构感知的全卷积网络以及 GAN 的显式 / 隐式学习策略,该论文提出了一种解决单目图像中姿态估计问题的方法,并在 2D 和 3D 姿态估计以及人脸重要标识等相关任务上显著优于现有方法。
- ICCVSegFlow: 视频目标分割和光流联合学习
本文提出了一种端到端可训练网络 SegFlow,用于同时预测视频中逐像素对象分割和光流,并通过统一框架双向传播对象分割和光流的有用信息。实验证明,引入光流可提高分割性能,同时改善了最先进算法的结果。
- 使用多任务全卷积网络(MFCN)进行图像拼接定位
本文提出一种利用全卷积网络 (FCN) 实现图像拼接攻击定位的技术。采用单任务 FCN (SFCN) 并利用表面标签进行训练,但在某些情况下输出的定位结果粗糙。因此,作者提出采用多任务 FCN (MFCN),其中利用两个输出分支进行多任务学 - ICCV弱监督物体定位的双阶段学习
本文提出了一种基于两阶段学习的方法,通过使用全卷积网络来找到最具区分性的部分,再利用条件反馈抑制最显著的部分以找到次重要的部分,最终实现对整个目标区域的捕捉。采用该训练方案可以有效解决弱监督语义分割、显著区域检测和目标位置预测等任务中只关注 - CVPR使用跟踪对象提案进行视频对象分割
通过结合基于类别的目标检测、类别独立的目标外观分割和时间上的目标追踪等方法,通过训练全卷积网络对视频中的特定对象外观进行独立的分割,再引入对检测框时间上的连续性约束,从而实现半监督视频目标分割。
- 中文排版转换
提出了一种新的基于深度学习的中文字体转换网络,该网络结构由两个子网络组成:一个全卷积网络转换指定的字体样式以保留结构信息,一个对抗网络生成更逼真的笔画细节,并克服了先前一些复杂的中文部件分割模型的问题,该模型将每个汉字视为一个不可分割的图像 - CVPR使用多模态全卷积神经网络学习从文档中提取语义结构
该研究提出了一种全卷积网络,通过多模态方法从文档图像中提取语义结构,并使用像素级分割方式考虑文档的语义结构提取。该方法不仅考虑文本的视觉外观,还考虑文本的内容,通过有效的合成文档生成数据进行预训练和半监督学习方法滴定优化网络架构,施加于真实 - 人脸分割、人脸交换和人脸感知
本文介绍了一种基于全卷积网络的人脸分割方法以及利用该方法进行的高效准确的人脸替换技术,并使用 “Labeled Faces in the Wild” 数据集进行了测试,证明了该方法的有效性。
- 具有上下文感知的生成对抗网络医学图像合成
本文提出了一种数据驱动的全卷积神经网络,利用对抗训练和图像梯度差异损失函数来更好地建模 MRI 到 CT 的非线性关系,进而生成与之对应的 CT 图像,实验证明其准确性和稳健性,并且表现优于已有的三种方法。
- 基于数据驱动和模型驱动的面部关键点鲁棒检测
本文介绍了一种结合数据和模型的方法来完成面部关键点的检测,即先利用全卷积网络(Fully Convolutional Network, FCN)来生成脸部所有关键点的响应图,再利用 Point Distribution Model(PDM) - 基于点云的三维全卷积网络车辆检测
本文将全卷积网络技术扩展到三维,并将其应用于点云数据的车辆检测任务中,实验结果表明该方法在自动驾驶领域的 KITTI 数据集上表现较之前的点云检测方法有显著提升。
- 使用深度神经网络从头开始进行时间序列分类:一个强大的基准
提出了用深度神经网络从头开始进行时间序列分类的简单但强大的基准线。通过提出的全卷积网络(FCN)和 ResNet 结构的非常深层神经网络的探索,实现了优越的性能。我们卷积模型中的全局平均池化即可利用类激活映射(CAM)来查找特定标签的原始数 - 全卷积网络在一般图像恢复问题中能否表现良好?
本文提出了一种基于全卷积网络 (FCN) 的彩色图像恢复方法,该方法通过学习直接将受损图像映射到干净图像的端到端映射,实现了盲图像修复并在图像去噪方面表现超过传统稀疏编码方法并有着与最先进方法相当的性能。
- 使用全卷积网络从 3D LIDAR 检测车辆
本文介绍了如何利用全卷积网络技术实现在 3D 距离扫描数据上进行车辆检测任务。文章中利用单个 2D 全卷积网络同时预测目标置信度和边界框,并通过精心设计边界框编码,即可利用 2D 卷积网络预测完整的 3D 边界框。在 KITTI 数据集上的 - 用于引导深度超分辨率的深度原始 - 对偶网络
本文提出了一种新的方法来提高深度图像的空间分辨率,使用深度全卷积神经网络和非局部变分方法在深度的原始 - 对偶网络中结合起来,通过训练我们的联合方法,可以优化卷积网络和变分方法及其优化过程等所有参数。评估表明,该方法在多个基准测试中性能优于 - 基于整体、多通道预测的场景文字检测
该文提出了一种基于全局的语义分割方法来定位场景中的文本,使用单一的 FCN 模型估计文本属性,以同时处理水平,多方向和曲线文本,并在 ICDAR 2013、ICDAR 2015、MSRA-TD500 以及 COCO-Text 数据集上测试得 - 像素级编码和深度分层用于实例级语义标注
本文进行了实例感知语义分割的研究,提出了一种利用全卷积网络的方法预测语义标签、深度和基于实例的编码,并通过低层次计算机视觉技术在 KITTI 和 Cityscapes 街景数据集上生成最先进的实例分割,该方法在性能上超过了现有的工作,并可以 - CVPR基于全卷积网络的多方向文本检测
该研究提出了一种使用全卷积神经网络对自然图像中的文本进行检测的新方法,通过综合考虑本地和全局线索,以分层的方式定位文本线。通过组合显著地图和字符组件来估计文本行假设,并使用另一个卷积神经网络分类器预测每个字符的质心,以去除误判。该方法适用于