- 零样本点云完整性基于二维先验
通过利用 2D 先验和点渲染技术,提出一个零样本的框架,用于完成部分观测到的点云,实验结果表明该方法能够优于现有方法并完成各种对象的形状恢复。
- CVPRGenN2N: 生成 NeRF2NeRF 翻译
我们提出了 GenN2N,这是一个用于各种 NeRF 翻译任务的统一框架,包括文本驱动的 NeRF 编辑、上色、超分辨率和修复等。与之前的方法不同,GenN2N 通过使用插拔式的图像到图像翻译器在 2D 领域进行编辑,并将 2D 的编辑转换 - CCC++:基于分段任意建模(SAM)增强的物体选择性颜色协调的优化彩色分类上色
本研究提出了一种基于多项式分类问题的上色方法,并应用加权函数于类别,通过将颜色值转换为颜色类别及其逆转换的一系列公式,优化了颜色类别转换的不同 bin 尺寸。在实际应用中,通过观察类别外观、标准差和模型参数,基于大规模实时图像,我们为分类任 - 扩散色彩:带文本引导的图像上色
使用图像扩散技术和细粒度文本提示的新型图像上色框架,实现了既语义合适又能提高用户对上色过程控制水平的上色输出,通过预训练的生成扩散模型进行微调并评估颜色鲜艳度,适用于颜色增强和历史图像上色。
- 基于反馈的目标外观学习的夜间热红外图像上色
通过使用生成对抗网络和反馈式目标外观学习(FoalGAN)方法,我们提出了改善夜晚热红外图像到日间彩色图像的转换性能的方法,包括对小目标类别的出色转换表现,通过引入一个小目标外观损失并采用双重反馈学习策略,进一步提高小对象的外观学习能力,并 - ICCVCoRF:使用知识蒸馏进行颜色化辐射场
基于神经辐射场(Neural Radiance Field,NeRF)的方法可以对多视角图像进行高质量的新视角合成。本研究提出了一种从输入的灰度多视角图像中合成着色的新视角的方法。通过将基于图像或视频的着色方法应用于生成的灰度新视角,我们发 - 基于语义对应的时序一致自动视频上色
该研究提出了一种新的视频着色框架,它将语义对应引入自动视频着色中以保持长程一致性,通过自动着色参考图像来监督整个着色过程,并且引入了语义对应网络和图像着色网络以保持临近帧和长期帧的时间一致性,实验证明该方法在维持时序一致性方面优于其他方法。
- 注意力感知的动漫线描上色
本文介绍了一种基于注意力机制的模型,其中使用通道和空间上的卷积注意力模块来提高编码器对特征提取和关键区域感知的能力,并使用带有交叉注意力和自注意力的 Stop-Gradient 注意力模块来解决跨域长距离依赖问题,实验结果表明该方法在动画线 - ECCVPalGAN:基于调色板生成对抗网络的图像上色
提出了一种新的基于 GAN 的上色方法 PalGAN,该方法通过集成调色板估计和色彩注意力来解决多模糊性和色彩渗透问题,实验表明该方法在定量评估和视觉比较方面均优于现有方法。
- UniColor:一种基于 Transformer 的多模态上色统一框架
该论文提出了第一个统一框架 UniColor,支持多种颜色模态的着色,包括无条件和有条件的模态,如笔画、示例、文本以及它们的混合。该模型使用了 CLIP-based 方法将多模态条件转换为提示点的公共表示形式,并提出了一种 Transfor - BigColor: 自然图像生成式颜色先验着色
本研究提出了一种名为 BigColor 的彩色图像上色方法,通过学习生成色彩先验来减轻以前的生成先验对图像结构和颜色的合成负担,并使用一种基于 encoder-generator 网络的方法来扩展其表示空间以覆盖各种野外图像结构,提供了具有 - Pik-Fix:恢复和着色旧照片
提出了一种新颖的基于参考图像的端到端学习框架,可修复和上色老照片。该系统采用来自参考图像的颜色直方图先验知识,大大减少了大规模训练数据的需求。实验表明,该方法在质量比较和量化测试方面均显著优于先前的最先进模型。
- 调色板:图像到图像扩散模型
本文提出了一种基于条件扩散模型的统一框架,用于图像到图像的转换,并在四个具有挑战性的图像到图像任务中测试了这个框架,即上色,修复,裁剪和 JPEG 恢复。我们的简单实现超越了所有任务上的强 GAN 和回归基线,无需任务特定的超参数调整,架构 - ICCV应用生成式色彩先验实现鲜艳多样的图像上色
本文提出了一种称为 GCP-Colorization 的自动上色方法,它利用先前预训练的生成对抗网络(GAN)中丰富且多样化的颜色先验知识,并利用 GAN 编码器 “检索” 匹配特征,然后通过引入特征调节到上色过程中,实现了单次前向传递产生 - SCGAN:基于显著性地图引导的生成对抗网络上色
本文提出了一种基于显著性图引导的生成对抗网络 (SCGAN) 框架,用于对灰度图进行自动上色。该方法采用预训练的 VGG-16-Gray 网络的全局特征,通过颜色编码器将其嵌入到颜色化中,可以用较少的数据训练,达到感知上合理的效果。两个分层 - 基于预训练 StyleGAN2 网络的无监督图像到图像的翻译
通过在预训练的 StyleGAN2 模型上进行一系列的模型变换,我们提出了一种新的图像到图像 (I2I) 转换方法,并提出了一种反演方法,以在源领域和目标领域之间进行 I2I 翻译。定性和定量评估证明了该方法在图像质量、多样性和与输入和参考 - DeepRemaster: 时间源自注意力网络,全面提升视频质量
提出了一种结合时间卷积神经网络和注意力机制的半交互式单一框架,用于修复陈旧影像并彩色化,其性能优于现有方法,并随视频时长和引用图像数量的增加而提高。
- 基于 GAN 的指导式全色影像上色 CNN 算法反思
本文提出了一种新的自监督学习框架,将 Pansharpening 看作是一个彩色化问题,并在模型训练中引入噪声注入和对抗性训练,通过提高神经网络的分辨率实现卫星图像 Pansharpening 的高质量输出。
- 基于结构和颜色条件的对抗着色图标生成
该研究提出了一种使用基于条件生成对抗网络的图标设计系统,可帮助设计师更轻松地完成图标的着色任务,并且实现了较高质量的着色效果。
- ChromaGAN: 对抗性图片着色与语义类别分布
本文提出了一种基于对抗学习和语义信息的图像上色方法,该方法使用生成网络来推断给定灰度图像的色度,模型通过全自监督策略进行训练并通过定量和定性实验展示出其失真度更高的优点。