基于深度范例的语义稀疏上色网络
提出了 SPColor—— 一种基于语义先验引导的模板图像着色框架,它利用未经监督的分割模型提供的语义先验来显式排除不同语义类别之间的不良对应关系,并显著缓解了不匹配问题,在公共数据集上定量和定性地优于最新的现有方法。
Apr, 2023
本篇论文提出了一种基于深度学习的局部着色方法,通过卷积神经网络,将灰度图像映射到输出彩色图像,该方法不仅可以获得良好的泛化性能,而且用户可以通过提供不同的参考图像来实现自定义结果,同时本文提出的图像检索算法可以自动推荐参考图像,有效地减少了手动选择的工作量。最后,本文还将该方法推广到了视频着色任务中。
Jul, 2018
提出了首个端到端网络来完成基于示例的视频着色,在保持参考风格的同时实现了时间上的一致性。通过引入循环框架来统一语义对应和颜色传递步骤,利用提供的参考图像来引导每一帧的着色,减少了积累的传播误差,并通过时间一致性损失进一步强制协同着色历史,最终生成稳定性良好且逼真的视频,实验表明,与现有技术相比,在定量和定性方面都具备优越性。
Jun, 2019
本研究提出了一种基于参考图像的自动着色任务的方法,使用几何失真的相同图像作为虚拟参考,以保证着色输出图像的基本真实性和密集语义对应关系,在内部注意机制中利用密集语义对应关系实现了颜色从参考到草图输入的转换,并在定量和定性评估中展示了该方法的有效性。
May, 2020
本文提出了一种基于显著性图引导的生成对抗网络 (SCGAN) 框架,用于对灰度图进行自动上色。该方法采用预训练的 VGG-16-Gray 网络的全局特征,通过颜色编码器将其嵌入到颜色化中,可以用较少的数据训练,达到感知上合理的效果。两个分层鉴别器的使用进一步增强了视觉感知性能。在 ImageNet 验证集上,实验结果表明,SCGAN 可以生成比现有技术更合理的上色图像。
Nov, 2020
本文提出了 SCNet,一种基于卷积神经网络的语义对应的几何合理模型,利用区域提议实现匹配原语,并明确将几何一致性纳入其损失函数中,该方法在多项基准测试中均表现优异。
May, 2017
该论文提出了使用像素级对象语义来引导图像上色,并使用具有两个分支的分层神经网络,以便学习对象及其颜色,以提高图像上色的真实感和质量,并引入联合双边上采样层以解决边缘颜色渗漏问题。
Aug, 2018
本论文提出了一种基于物体实例的彩色化方法,利用深度神经网络提取物体级别的特征,并采用融合模块组合全图像级别和物体级别的特征来预测最终颜色,大规模实验结果表明该方法优于现有的方法,达到了图像彩色化的最新性能。
May, 2020
本文利用图像语义分割的信息,结合输入图像的颜色和空间信息,训练了一个 CNN 模型来消除场景照明造成的色偏,试验结果表明,利用 CNN 模型的图像语义分割信息可以将误差减少超过 40%。
Feb, 2018