该论文提出了使用像素级对象语义来引导图像上色,并使用具有两个分支的分层神经网络,以便学习对象及其颜色,以提高图像上色的真实感和质量,并引入联合双边上采样层以解决边缘颜色渗漏问题。
Aug, 2018
通过训练有条件的 PixelCNN 生成低分辨率的彩色图像,并使用生成的低分辨率图像和原始灰度图像为输入,训练第二个 CNN 生成高分辨率的彩色图像,该方法相比现有方法在 “视觉图灵测试” 中,经过人类评定,产生了更多样和更有可信度的彩色图像。
May, 2017
本论文提出了一种基于物体实例的彩色化方法,利用深度神经网络提取物体级别的特征,并采用融合模块组合全图像级别和物体级别的特征来预测最终颜色,大规模实验结果表明该方法优于现有的方法,达到了图像彩色化的最新性能。
May, 2020
本文提出了一种基于对抗学习和语义信息的图像上色方法,该方法使用生成网络来推断给定灰度图像的色度,模型通过全自监督策略进行训练并通过定量和定性实验展示出其失真度更高的优点。
Jul, 2019
我们开发了一个完全自动化的图像上色系统,使用最新的深度网络技术,利用低级别和语义表示,通过预测每个像素的颜色直方图进行训练。无论是在完全自动化的还是部分自动化的上色任务中,我们的方法都优于现有方法。同时,我们也探索使用上色作为自监督视觉表示学习的手段。
Mar, 2016
本文提出了一种基于分类任务的自动化方法,使用卷积神经网络在测试时前向传递来处理图像的着色问题,并且提高了其结果的颜色多样性,相比之前的方法机器生成的着色更加逼真,并且证明了这种自动着色可以作为一项有效的预训练任务,提供了在特征学习领域上最好的性能。
本文介绍了一种使用条件生成式对抗网络解决无监督多样化上色问题的方法,并在 LSUN 卧室数据集上表现出高竞争性和高可信度的着色结果。
Feb, 2017
通过使用扩散先验的生成能力,结合亮度条件指导和多模式高级语义先验,本文提出了一种自动上色流程,能够合成饱和且具有合理语义的颜色,改善了自动上色方法中的语义和色彩的准确性问题。
Apr, 2024
该研究提出了一种基于概率的技术,用于为灰度自然图像着色,具有多个可能的着色方案和适当的随机采样方案,并通过严格的理论框架支持训练过程,达到了强大的实验结果。
使用变分自编码器 (VAE) 建立灰度图像到多种可能颜色映射的条件模型,利用多模态分布的采样得到表现出长程空间协调性的多样性上色结果。与条件卷积变分自编码器(CVAE)和条件生成对抗网络(cGAN)方法相比,多模态变量 (VAE) 方法能够获得更好的多样性上色效果。
Dec, 2016