该研究提出了一种基于深度有条件敌对生成网络和本地特征网络的漫画线画自动上色方法,通过训练更加真实的图像数据,获得更好的视觉效果。
Aug, 2018
本文提出一种利用生成对抗网络进行视频自动上色的方法,采用三维卷积层和反卷积层进行操作并结合亮度信息,在黑白电影数据集上获得成功,使用新提出的指标对上色结果的一致性进行数值验证。
May, 2019
本文介绍了一种基于注意力机制的模型,其中使用通道和空间上的卷积注意力模块来提高编码器对特征提取和关键区域感知的能力,并使用带有交叉注意力和自注意力的 Stop-Gradient 注意力模块来解决跨域长距离依赖问题,实验结果表明该方法在动画线条和语义颜色信息方面表现优于其他最先进的方法。
Dec, 2022
该研究提出了一种新的视频着色框架,它将语义对应引入自动视频着色中以保持长程一致性,通过自动着色参考图像来监督整个着色过程,并且引入了语义对应网络和图像着色网络以保持临近帧和长期帧的时间一致性,实验证明该方法在维持时序一致性方面优于其他方法。
May, 2023
本文提出了一种完整的方法来为 Fakemon、动漫风格的怪物图像上色。我们使用自动化提取颜色提示的算法训练网络,并将 Pix2Pix 和 CycleGAN 方法结合起来生成最终结果,但上色效果仍有待提高。
Jul, 2023
本研究提出一种基于条件生成对抗网络 (cGAN) 的漫画着色方法,该方法不需要大量训练样本,只需使用一张着色参考图像进行训练。同时,我们还提出了分割和色彩校正方法以缓解出现的模糊和伪像等问题,最终结果清晰、锐利,且保留了原始漫画形象的色彩风格。
Jun, 2017
本文提出一种简单而有效的方法来实现一致性视频编辑,通过优化潜在编码和预先训练的生成器,减少时间光度不一致,并在不同领域和 GAN 逆推技术上得到了有利的结果。
Jun, 2022
本文介绍了一种使用条件生成式对抗网络解决无监督多样化上色问题的方法,并在 LSUN 卧室数据集上表现出高竞争性和高可信度的着色结果。
Feb, 2017
提出了一种混合循环视频着色方案,使用 VCGAN,通过全局特征提取器和占位符特征提取器增强连续性和时空一致性,在颜色鲜艳和图像连续性之间取得良好平衡,并在彩色视频质量和时空一致性方面比现有方法产生了更高质量的结果。
Apr, 2021
提出了首个端到端网络来完成基于示例的视频着色,在保持参考风格的同时实现了时间上的一致性。通过引入循环框架来统一语义对应和颜色传递步骤,利用提供的参考图像来引导每一帧的着色,减少了积累的传播误差,并通过时间一致性损失进一步强制协同着色历史,最终生成稳定性良好且逼真的视频,实验表明,与现有技术相比,在定量和定性方面都具备优越性。
Jun, 2019