无关风格的强化学习
本文提出一种使用深度对比学习的方法,通过学习图像特征来获得图像的样式表示,并使用生成网络进行样式转移。研究表明,相对于现有的基于二阶统计量的方法,这种方法能够更加有效地获取图像的样式信息并生成更好的结果。
May, 2022
该论文提出了一种算法,旨在通过消除对混淆特征的过度拟合来提高强化学习代理的泛化能力。我们的方法包括一个最大最小博弈论的目标,其中一个生成器在强化学习过程中传递观察的风格。生成器的额外目标是扰动观察,从而最大化代理采取不同行动的概率,而策略网络通过更新参数来最小化这种扰动的影响,同时最大化预期的未来奖励,从而保持稳健性。基于这一设置,我们提出了一种实用的深度强化学习算法 ARPO(对抗鲁棒策略优化),以找到一个能够适应未知环境的鲁棒策略。我们在 Procgen 和 Distracting Control Suite 上评估了我们的方法的泛化能力和样本效率。实验证明,与一些基线算法(包括数据增强)相比,ARPO 展现出了更好的性能。
Aug, 2023
我们提出了一个快速前馈网络,使用深度特征和纹理统计来表示内容和风格,并使用对抗网络来规范画风生成,包括条件生成器和条件鉴别器,并使用遮罩模块来空间控制风格化级别和稳定对抗训练,在定性和定量实验中与相关工作进行比较。
May, 2018
本论文提出了一个使用生成对抗网络的鉴别器来调整生成器与原有的分离的损失函数,从而推广风格迁移的概念作为棋类游戏学习的方法,并以具体玩家为风格,给出了实证研究。
Feb, 2017
本文提出 Adversarial Style Augmentation 方法来解决语义分割中的领域通用性问题,其通过在训练过程中动态生成样式强化的图像,以有效地避免模型过度拟合于源域,并且在两个合成 - 真实语义分割基准测试数据集上进行实验,结果显示 Adversarial Style Augmentation 可以显着提高模型在未见真实域上的性能。
Jul, 2022
本文提出了一种基于风格迁移文献的替代生成对抗网络的生成器体系结构,能够自动学习高级属性和生成图像中的随机变化,改善传统的分布质量量度标准,提高内插质量和交互性能,同时也更好地分离出潜在的多变因素。
Dec, 2018
基于深度强化学习,我们提出了一种用于神经风格迁移任务的基于步骤的模型,能够控制风格化程度,同时在早期步骤中保留更多内容图像的细节和结构,在后期步骤中合成更多风格图案,具有较低计算复杂度。实验结果表明了我们方法的有效性和鲁棒性。
Sep, 2023
我们的论文旨在学习一种视觉艺术风格的表示形式,该表示形式从语义内容中更强的解离出来,我们使用神经风格转换(NST)来测量和驱动学习信号,并在明确解离度量上实现了最先进的表示学习。我们表明,强调风格和内容的解离会在风格特定度量方面取得大量收益,编码较少的语义信息并在下游多模态应用中实现最先进的准确性。
Apr, 2023
本研究提出使用领域特定映射来重新映射共享内容空间中的潜在特征到特定内容空间,以提高图像的编码质量和风格传递的效果。实验证明,与以往的图像风格转换方法相比,所提出的方法在需要图像间语义对应的复杂场景中表现得更好。
Aug, 2020
本文提出了一种基于随机样式转换的数据增广方法,即样式增广,以提高卷积神经网络在分类、回归和领域迁移任务中的鲁棒性。在训练期间,通过从多元正态分布中采样输入样式嵌入,将任意样式转换网络调整为执行样式随机化,以随机化纹理、对比度和颜色,同时保留形状和语义内容,并且与传统的数据增广技术相结合以改进网络性能。通过分类和单目深度估计领域迁移实验的验证,证明本文提出的技术方法能够提高模型的泛化能力。
Sep, 2018