- 基于参考图像的图像超分辨率的细节增强框架
通过引入扩散模型来生成和增强低分辨率图像中的细节,本文提出了一种用于基于参考的超分辨率的细节增强框架(DEF),能够促进对齐,同时避免参考图像的影响,实验结果表明该方法在视觉效果上具有优势同时保持可比较的数值结果。
- CVPR高保真虚拟试穿的纹理保持扩散模型
在虚拟试衣领域,我们提出了一种基于纹理保持扩散(TPD)模型的新方法,通过利用空间维度上人体图片和参考服装图片的连接输入扩散模型的去噪 UNet,实现了高效准确的纹理迁移,并预测精确的修补掩膜,将掩膜预测和图像合成整合于单一紧凑模型中,显著 - CVPR跨越空间和时间分辨率的桥梁建设:基于变化先验和条件扩散模型的参考图像超分辨率
利用土地覆盖变化的先验信息来指导去噪过程的变化感知扩散模型用于参考图像超分辨率重建,通过将先验信息注入去噪模型,提高未改变区域参考信息的利用和已改变区域语义相关内容的重建,以此来改善模型性能。
- 神经隐式表面的参数化的双向变形
本文提出了一种用于神经隐式表面的简单参数化的新型神经算法,以促进可视化和各种编辑任务,并支持多个对象的共同参数化和纹理传递。
- 颜色和纹理双管道轻量级风格转移
提出了一种 CTDP 方法,通过双管道同时输出颜色和纹理转换结果,使用掩码总变异损失抑制伪影和小纹理表示,能够控制强度添加纹理结构到颜色转换结果,实验结果表明 CTDP 生成的颜色和纹理转换结果都达到了最先进水平,而且其模型尺寸较小。
- ICCV通过稠密对应实现可变形物体的隐式形状表示的自监督学习
使用自监督学习方法为可变形物体学习神经隐含形状表示法,无需特定语义领域的额外注释和大量变形约束,可用于纹理转移和形状编辑应用。
- ICCV创意鸟:无监督单视角三维风格转移
本文提出了一种新方法,用于单视角 3D 风格转换,生成具有形状和纹理转换的独特 3D 对象,主要关注鸟类的 3D 重建,通过引入 DRGNet 和 MLP 构建了一个新型的 3D 鸟类,并使用语义 UV 纹理传输模块实现文本样式转换,最终结 - CVPRAUV-Net: 学习对齐 UV 贴图用于纹理迁移和合成
本文针对 3D 形状的纹理表达问题,提出了基于 2D 对齐 UV 映射的 AUV-Net 方法来实现纹理表达对齐,进而方便实现纹理传输、合成和重建。
- AAAI纹理改革者:快速通用交互纹理转移
通过使用全新的前向多视图和多阶段合成过程以及语义地图引导策略,提出了一种快速而通用的交互式纹理转移的神经网络框架,从而在粗到细的方式下合成高质量的结果,同时保留了结构和纹理的细节和连贯性,并且相较于交互式纹理转移算法,不仅能够获得更高质量的 - CVPRDeformed Implicit Field:学习稠密对应关系建模三维形状
本论文提出了 Deformed Implicit Field (DIF) 表示法来建模 3D 物品的形状,实现物品之间稠密的对应关系。DIF-Net 神经网络通过学习一个特定类别的物品的形态潜在空间和这些物品的 Deformation Fi - 深度几何纹理合成
本研究提出了一种新的框架,用于学习几何纹理统计知识以生成具备放射性的深层特征,使得可以实现在不同层次上的网格顶点位移及纹理转移。
- CVPR学习纹理转换网络用于图像超分辨率
本文提出了一种基于注意机制的纹理转换神经网络(TTSR),采用 DNN 可学习的纹理提取器、相关嵌入模块、用于纹理传输的硬注意力模块,并且结合 LR 和 Ref 图像进行联合特征学习,从而实现图像的纹理恢复。经过广泛实验,TTSR 在定量和 - SieveNet: 基于图像的虚拟试穿的统一框架
本文提出了一种名为 SieveNet 的框架,用于增强虚拟试衣的质量,使用多级精细变形网络和基于感知几何匹配的损失函数来变换衣服;引入分割掩模先验来提高纹理转移网络;引入多对三元组损失来训练纹理转移网络,从而产生高质量的虚拟试衣结果。
- ECCV基于纹理幻觉的大比例画作超分辨率
本文提出了一种高效的大比例尺率高清晰度画作超分辨率算法,其中使用了小波纹理损失和退化损失来转移更多的纹理信息。同时,还使用高清晰度画作数据集 PaintHD 和其他方法的比较来证明本算法的有效性。
- 基于一阶段少样本学习的艺术字形图像合成
本文提出了一种名为 AGIS-Net 的新型模型,它可以利用少量的样本在一个阶段内传输形状和纹理风格。通过使用两个编码器来分解内容和风格的表示,并利用两个协同工作的解码器同时生成字形图像和其纹理图像。这个单阶段模型比其他多阶段堆叠方法更加高