FocalClick 提出了一种交互式分割模型,通过两个快速推理处理目标区域与焦点区域的粗分割和局部细分割,采用渐进式合并的方法有效地对预先存在的分割遮罩进行修正,同时在 FLOP 显著更小的情况下实现了与 SOTA 方法相当的结果。
Apr, 2022
基于大规模用户点击日志的自我监督学习对于点击率(CTR)预测仍然是一个开放性问题,而我们提出了一个无模型的预训练框架,利用特征破坏和恢复,挖掘多领域分类数据的特征交互,并通过两种实用的算法(即遮蔽特征预测和更替特征检测)进一步优化 CTR 预训练,实现了在 CTR 预测方面的有效性和效率的新的最先进表现。
Aug, 2023
本文介绍了一种基于前向传递的点击交互式分割模型,无需额外的优化技巧即可实现最新的最佳结果,并且对于性能的分析表明,使用 COCO 和 LVIS 的训练数据集所训练的模型表现最佳。
Feb, 2021
我们提出了一种新颖的轻量级分割架构,名为多尺度特征传播网络 (MFPNet),通过设计具有柔性瓶颈残差模块的鲁棒的编码器 - 解码器结构,探索深入且丰富的多尺度语义上下文,同时利用图卷积网络 (GCNs),在瓶颈残差模块之间进行多尺度特征传播,最终在基准数据集上表现出优异的分割结果。
Sep, 2023
提出了一种利用现有实例蒙版注释来增强训练集的简单、高效、有效的方法,通过引入随机抖动来改善 Mask R-CNN 的性能,并提出了一种基于位置概率图的方法来探索可以根据局部外观相似性放置对象的可行位置,其对实例分割的性能提高了 2.2mAP (COCO 数据集) 和 2.2mAP (Pascal VOC 数据集)。
Aug, 2019
本研究介绍一种新颖的基于深度学习的算法来解决交互式物体选择的问题,该算法可以将用户提供的正负反馈转换成欧几里得距离图,并与图像的 RGB 通道拼接,采用多种随机采样策略生成图像和用户交互对,通过 Fine-tune 深度反卷积网络,最终结果融合图像概率图和图切割优化,实现对物体边界的精细提取。实验结果表明,该算法具有较好的泛化能力,优于所有现有的交互式物体选择方法。
Mar, 2016
本文提出了一种虚拟多模态前景抠图方法,该方法使用自我监督多模态算法来学习人 - 物体交互前景。通过将输入图像分解成估计的深度图、分割遮罩和交互热力图,然后进行补充学习和交换可靠的梯度,在没有标签的情况下预测偏差概率图。我们证明了该模型优于现有最先进的方法。
Oct, 2021
本研究提出了一种新颖的多分辨率特征扰动(MRFP)技术,通过对领域特定的细粒度特征进行随机扰动和对粗特征的风格进行扰动,以提升神经网络在语义分割中的鲁棒性和域不变性。实验结果表明,除了风格信息的扰动外,对细粒度特征的扰动对于学习域不变鲁棒特征映射至关重要。MRFP 是一个简单且计算效率高的可传递模块,不需要额外的可学习参数或目标函数,有助于现有深度神经网络在模拟到真实场景的语义分割中学习到鲁棒的域不变特征。
Nov, 2023
本研究提出了一种基于变分推断的概率融合网络(VPFNet),采用随机特征样本平均,引入加权交叉熵损失函数、光照和类别先验信息,应对 RGB 和热红外图像融合语义分割中的模态噪声、类不平衡和模态偏差问题,在 MFNet 和 PST900 数据集上实验结果显示该网络取得了最佳的分割性能。
Jul, 2023
本研究提出了一种新的交互式图像分割方法 FCFI,使用用户注释和反馈整合来优化分割结果,并在四个基准测试中取得了领先于现有方法的最新最佳表现。
Mar, 2023