组合神经材质
本文提出一种用于视觉与语言之间学习共同表示空间的模型,通过组合语义上的含义并不需要显式位置监督,将文本的复合性约束在视觉领域中,并通过空间变换器以及一种表示学习的方法,学习将图像分成分别编码的补丁,以可解释的方式将视觉和文本表示相结合,该模型能够执行弱监督对象检测,并展示了其对未见对象组合的外推能力。
Jun, 2022
本文介绍了一种基于无监督学习的方法,探讨反向问题 —— 如何从图像集合中发现代表每个图像的生成概念,进一步利用这些生成概念生成新的艺术和混合图像,并将其用作下游分类任务的一种表示。
Jun, 2023
通过引入 Deferred Neural Rendering 和 Neural Textures,本文提出一种新的渲染模型,可以快速准确地合成出高质量的视觉效果,即使输入的 3D 内容不完整嘈杂,同时可以在多个应用领域内进行使用,例如在新颖的视角合成,场景编辑和面部复制等方面。
Apr, 2019
该研究介绍了一种通过将几何图形和外观区分开来的方法,使用体积场景表示和可微分体积渲染,利用表面参数化网络以及循环一致性损失等技术,生成高质量的渲染结果,且可直接通过编辑 2D 纹理贴图来修改外观。
Mar, 2021
本文研究了纹理的视觉属性及对不同模型的影响,发现现有的生成和判别模型不能很好地捕捉纹理的组成属性。我们以证据支持了此观点,并提供了可解释性的模型来生成基于语言的解释,以加深对纹理分类的理解。我们通过在 Caltech-UCSD 鸟类数据集上进行精细分类,证明了该数据集上所学习到的纹理属性相比专家设计的属性能够实现显著改进。
Aug, 2020
本文提出一种利用深度学习的方式,通过在训练阶段来移动计算负担,使用单个纹理样本训练紧凑的前馈卷积网络,可以生成任意大小的同一纹理的多个样本,并将艺术风格从给定图像传输到任何其他图像中,生成的网络轻巧,并且可以比 Gatys 等人的方法快数百倍。
Mar, 2016
本文提出了 Text2Scene 模型,该模型从自然语言描述中生成各种形式的组成场景表示。与最近的其他工作不同,Text2Scene 不使用生成对抗网络(GANs),而是通过依次生成对象和它们的属性来学习生成场景,从而实现生成各种形式的场景表示,包括卡通样式的场景、与真实图像相对应的对象布局和合成图像。该方法不仅能够胜任与基于 GAN 的最先进方法相竞争的工作,而且其结果可以被解释。
Sep, 2018