一个具有挑战性的动漫风格识别基准测试
本研究提出了一种计算机视觉系统的方法,用于无需有标签的数据来识别艺术图像中的物体,通过域适应和样式转移等技术来实现,无需大量的目标数据即可进行跨域对象识别及场景分类。
Dec, 2018
该研究提出了一个基于GAN的新框架,可以将肖像照片转换为动漫外观的高质量图像,同时保留源图像的整体结构,该框架采用了双分支鉴别器来学习具体领域分布和领域共享分布,有助于生成具有视觉吸引力的动漫图像。
Feb, 2021
本文提出了一种使用内容编码和随机选取风格编码生成动漫图像的方法,并从其简单而有效的内容和风格定义中导出了对抗性损失,可以生成非常丰富的动漫风格;通过丰富的定量和定性实验支持本方法的正确性;并可在不训练视频的情况下进行视频转换,从而为内容和风格的形式化提供了一个解决方案。
Jun, 2021
本文重点研究了如何使用人工智能技术,特别是 StyleGAN 和潜空间探索方法,为动漫画家辅助提供高质量的肖像画创作。研究表明,使用我们提出的基于S2I的框架,动漫画家可以通过不断精确的画出轮廓线,自动得到高质量的头像肖像画。
Jun, 2023
提出了一种新的半监督图像转换框架Scenimefy,利用结构一致的伪对齐数据,以简化纯无监督的设置,通过分割引导数据选择来获得高质量的伪监督,并引入补丁对比风格损失来提高风格化和细节,实验证明了该方法在感知质量和定量性能方面优于现有技术基准。
Aug, 2023
我们提出了User-aware Multi-modal Animation Illustration Recommendation Fusion with Painting Style(UMAIR-FPS)来弥补现有动漫推荐系统在整合图像特征方面的不足,并使用用户感知的多模态贡献度量机制和DCN-V2模块实现了用户与动漫插画的推荐,取得了显著的性能提升。
Feb, 2024
本文提出了一种基于动画制作工作流程的超分辨率方法,通过选择视频源中最少压缩和最具代表性的帧来构建动画图像数据集,并通过引入预测导向的压缩模块和增强手绘线条的伪地面真实值准备方法,解决了失真和淡色伪影的动画特定问题,同时引入平衡的双感知损失来减轻不必要的色彩伪影和提高视觉清晰度,在公开基准测试中验证了本方法优于当前最先进方法的效果。
Mar, 2024
通过实验证明,手绘卡通动画与自然视频分布不同,并且提出了首个大规模卡通动画数据集Sakuga-42M,通过调整现有基础模型在卡通相关任务上获得了出色的性能,旨在将大规模化引入卡通研究,促进未来卡通应用的普适性和健壮性。
May, 2024
本研究解决了文本转图像的动漫图像生成模型中的高质量图像生成问题。通过批量大小和 dropout 控制、提高图像训练分辨率以及改进多层次标签的使用,提出了新的模型改进方法。最终,Illustrious 在动画风格上表现出色,具有更高的定制化和个性化能力,预示着其在插图领域的广泛应用潜力。
Sep, 2024