- SalFAU-Net:显著性融合关注 U-Net 用于显著目标检测
我们提出了一种名为 Saliency Fusion Attention U-Net (SalFAU-Net) 的模型,它在每个注意力 U-net 模型的解码器块中合并了一个显著性融合模块,从而可以准确地检测具有多个对象、小物体或低分辨率对象 - 全卷积切片至体积重建用于单片堆叠磁共振成像
磁共振成像中切片到体积重建是从被运动干扰的 2D 切片堆叠中计算重建未知 3D 磁共振体积,该论文提出了一种能够克服之前方法的缺点,在极端切片间运动的情况下产生最先进的重建,通过将 SVR 形式化为单堆叠运动估计任务,并训练一个完全卷积网络 - 基于 Transformer 网络的皮肤病变分割的跨尺度依赖建模
本研究提出并评估了一种基于分层 Transformer 结构的 U 型网络模型用于皮肤病变分割,同时提出了一种自适应地结合每个阶段上下文的 Inter-scale Context Fusion (ISCF) 方法,初步结果证明了 ISCF - LUCYD: 一种特征驱动的 Richardson-Lucy 去卷积网络
本篇论文提出了一种基于 Richardson-Lucy deconvolution 公式和全卷积网络特征融合的 LUCYD 方法来改善显微镜图像质量和图像恢复效果,该方法可以在降低计算成本和保持高度可解释性的情况下,比现有技术在真实和合成显 - CCDN:用于相机标定的棋盘格角点检测网络
提出了一种新的检测算法,包括完全卷积网络和后处理技术,在遇到各种质量差的图像,如镜头畸变、极端姿势和噪声时,能够保持高准确性,移除假阳性,能够在不需要先验知识的情况下在多个场景下实现各种规模的输出。
- MM手写汉字文本分割识别:一种无需分段注释的方法
提出一种基于分割的方法以识别手写中文文本,使用简单而有效的完全卷积网络实现。使用一种新颖的弱监督学习方法,只需使用交录注释即可训练网络;无需先前分割方法所需的昂贵字符分割标注。因为完全卷积网络缺乏上下文建模,所以提出了一种上下文规则化方法将 - 使用全卷积网络估计位移流进行文档图像去扭曲
通过全卷积神经网络 (FCN) 估算像素位移来实现文档图像矫正与背景消除,我们提出了一种新的框架来估算像素位移,训练 FCN 通过回归失真文档的位移,我们提出了局部平滑约束(LSC)作为正则化以控制平滑度。实验表明,我们的方法在各种几何失真 - CVPR全卷积网络实现端到端目标检测
本文针对基于全卷积网络的主流目标检测器在进行完全端到端训练时需要手动设计的非极大值抑制(NMS)后处理方法进行分析,发现正确的标签赋值在其中起着至关重要的作用。本文提出了一种名为预测感知一对一(POTO)的分类标签赋值方法,使得在完全卷积检 - 高效盲点神经网络图像去噪架构
用卷积神经网络进行图片去噪是计算摄影学中重要的工具,本研究提出了一种新的全卷积网络结构,使用扩张卷积实现盲点性质,该网络在已有数据集上表现优于之前的工作并取得了最新成果。
- 基于 Co-Attention 全卷积网络的共同显著性检测
本文提出了嵌入了共同注意力模块的全卷积网络框架,称为共同注意力 FCN (CA-FCN),旨在检测一组相关图像中的共同显著对象。实验表明,CA-FCN 在大多数情况下优于现有算法,同时通过消融研究证明了新共同注意力模块的有效性。
- ECCV用于连续手语识别的全卷积网络
本文提出了使用全卷积网络 (FCN) 实现在线手语识别的方法,同时从仅具有句子级注释的弱注释视频序列中学习空间和时间特征,通过引入一个手语特征增强 (GFE) 模块来提高序列对齐学习的效果,实验表明该方法在连续手语识别上有效且在在线识别中表 - 深度变分实例分割
本文提出了一种利用全卷积神经网络直接预测实例标签的方法,并将分割问题作为最小化优化函数的变分松弛问题来处理,并扩展了经典的 Mumford-Shah 变分分割问题以处理实例分割中的置换不变标签,实验证明此方法能有效地解决实例分割任务。
- 基于 EPI 的定向关系网络用于光场深度估计
本文提出了一种基于全卷积网络的深度估计方法,用于通过利用光场相机获取的空间和角度信息中的几何特征,估计场景的深度图,并引入了 “定向关系模块” 帮助建立直线方向之间的关系来提高估计的精度。
- Frustum ConvNet:滑动视锥以汇聚局部点特征进行遮挡不变的三维物体检测
本文介绍了一种名为 Frustum ConvNet 的新方法,可以从点云中识别 3D 物体。该方法首先在 RGB 图像中给出 2D 区域的建议,然后为每个区域建立一个锥体序列,并使用获得的锥体组合局部点。Frustum ConvNet 通过 - 卷积神经网络实现准确、高效、无限制的文字识别
文章提出了一种数据高效,端到端的神经网络模型用于通用的非受限文本识别,并通过在七个公共数据集上达到最优结果,表明了这种模型的通用性和优越性。
- OriNet:一种完全卷积网络用于 3D 人体姿态估计
该研究提出了一种新的 3D 人体姿态估计方法,即利用肢体方向与肢体区域的边界框一起表示 3D 姿态,并且通过简单的方法在多项基准测试中取得了良好的结果,该方法具有较好的泛化性能。
- 利用稀疏标注进行主动脉影像序列分割的循环神经网络
本文提出了一种将全卷积网络和循环神经网络相结合的图像序列分割算法,旨在将空间和时间信息同时纳入分割任务中,通过非刚性标签传播和指数加权损失函数的引入来解决训练中存在的挑战,实现了对人体主动脉 MRI 图像序列的高精度分割。
- CVPR无需边界框的物体定位
本文提出了一种可用于无未注释的边界框的 object location 评估的 Loss function,该方法不需要边界框、区域提议或滑动窗口,并使用 3 个数据集对该方法进行了评估,分别为人头位置、瞳孔中心和植物中心。我们的方法优于最 - CVPR使用像素度量学习的快速视频目标分割
该研究致力于解决在给定用户注释指向感兴趣的物体的情况下的视频对象分割问题。作者提出了一种基于学习嵌入空间的像素级检索方法,并使用全卷积网络作为嵌入模型,使用修改后的三元组损失进行训练。作者提出的方法支持不同类型的用户输入,如在第一帧中的分割 - CVPR语义分割的上下文编码
本文提出了一种 Context Encoding Module 方法,在原有 FCN 框架的基础上加入了全局场景语义信息来优化语义分割结果,在 PASCAL-Context、PASCAL VOC 2012 和 ADE20K 数据集上取得了最