本研究提出了一种名为 Stop-Gradient Attention (SGA) 的训练策略来解决基于参考线描图的着色任务中注意力机制的训练不稳定性问题,并在多个基准测试上实现了显著的改进。
Jul, 2022
本文介绍了一种基于敌对生成网络的图像着色方法,可以实现在动漫制作领域中对线描进行快速稳定的着色,从而加快制作进度,减少成本。
Apr, 2019
该研究提出了一种基于深度有条件敌对生成网络和本地特征网络的漫画线画自动上色方法,通过训练更加真实的图像数据,获得更好的视觉效果。
Aug, 2018
本文提出了一种完整的方法来为 Fakemon、动漫风格的怪物图像上色。我们使用自动化提取颜色提示的算法训练网络,并将 Pix2Pix 和 CycleGAN 方法结合起来生成最终结果,但上色效果仍有待提高。
Jul, 2023
本研究提出了一种基于参考图像的自动着色任务的方法,使用几何失真的相同图像作为虚拟参考,以保证着色输出图像的基本真实性和密集语义对应关系,在内部注意机制中利用密集语义对应关系实现了颜色从参考到草图输入的转换,并在定量和定性评估中展示了该方法的有效性。
May, 2020
本文提出基于卷积神经网络的针对低光图像的色彩注意力网络(CWAN),学习了从低光到高质图像的端到端映射,并且在低光图像中寻找有用的色彩线索来辅助色彩增强过程,定位这些区域并将 CWAN 的注意力主要集中在综合这些局部区域以及整个全局图像上,基于挑战性数据集的定量和定性实验证明了该方法相对于现有技术的优势。
Nov, 2019
本篇论文提出了一种基于深度学习的局部着色方法,通过卷积神经网络,将灰度图像映射到输出彩色图像,该方法不仅可以获得良好的泛化性能,而且用户可以通过提供不同的参考图像来实现自定义结果,同时本文提出的图像检索算法可以自动推荐参考图像,有效地减少了手动选择的工作量。最后,本文还将该方法推广到了视频着色任务中。
Jul, 2018
本文提出了 Colorization Transformer—— 一种基于自注意力的多样化高保真图像上色新方法,其过程包括使用有条件自回归变换器产生低分辨率粗糙的灰度图像以及通过两个完全并行的网络上采样,将这种粗糙着色的低分辨率图片转换为精美的高分辨率图像,并且从这个模型中采样产生出的多样化着色效果整体上优于现有最先进技术,而且人类评估者在 Mechanical Turk 测试中在 60% 以上的情况下喜欢由 Colorization Transformer 生成的图像胜于原始图像。
Feb, 2021
开发了一种半自动的漫画图像 “Comicolorization” 上色系统,通过参考彩色图像引导,可实现漫画的全彩上色。
Jun, 2017
本文提出了一种基于用户交互的边缘增强网络,通过简单的用户涂鸦指示增强哪些感兴趣区域,实现对色彩渗透问题的有效改善,且只需要用户进行最小的努力。实验结果表明,与现有基线相比,我们的交互式边缘增强方法在各种数据集上有效地改善了色彩渗透问题。
Jul, 2021