无对抗训练的多类型解缠
本文提出一种控制文本数据中多种因素变异的模型,用回译机制代替对解缠缠绕的限制,实现对性别、情感、产品类型等多个属性的控制,并通过在潜空间中的池化运算使内容保留和风格变化之间的权衡更加精细,进一步拓展了去耦合框架的应用范围。
Nov, 2018
本文提出了一个利用多任务和敌对目标进行辅助的简单但有效的方法,用于预测 label 和词袋模型,以此解决了语言模型中风格和内容的潜在变量发掘问题。同时有效地实现了风格迁移,并取得了较之前的最先进方法更好的迁移精度、内容保存和语言流畅度。
Aug, 2018
本文提出了一种创新的框架,利用两个分支的自编码器来学习内容和风格分离的表征,并通过多个损失约束辅助无监督学习,最终生成清晰、高质量的 256*256 分辨率的图片。
May, 2019
通过信息理论,提出了一种能够有效将自然语言进行解缠编码的新方法,产生了在内容和风格保留方面高质量的解缠表示,借助互信息的上界来度量风格和内容之间的相关性,实现对风格和内容嵌入成两个独立的低维空间。
Jun, 2020
利用半监督对比学习方法,我们提出一种新的方法来实现属性的稳健控制,并增强内容的保留。通过重新解缠重构的句子并将其与原始潜变空间进行比较,我们实现了一个闭环解缠过程,进一步帮助内容保留。与以往方法不同,对比学习方法能够代替最小化互信息和对抗训练在解缠过程中的作用,从而减少计算成本。我们在三个文本数据集上进行了实验证明了我们模型的有效性。
Dec, 2023
自我监督表示学习经常使用数据增强来诱导对数据的 “风格” 属性的某种不变性。然而,由于在训练时通常不知道下游任务,很难事先推断哪些属性实际上是 “风格”,并且可以安全地丢弃。为了解决这个问题,我们引入了一种更有原则性的方法,旨在解开 “风格” 特征而不是丢弃它们。关键思想是添加多个风格嵌入空间,其中:(i)每个空间对除一个增强操作外都不变;(ii)联合熵被最大化。我们从因果潜变量模型的角度形式化了我们的结构化数据增强过程,并证明了内容和(多个模块的)风格变量的可辨识性。我们在合成数据集上通过实验证明了我们方法的好处,然后在 ImageNet 上展示了有限但有希望的结果。
Nov, 2023
本文提出 Style Transformer,它结合了注意力机制和变形器模型,可以更好地处理文本风格转移和内容保存的问题。
May, 2019
本文提出了一种无监督的深度学习方法来分离在野外拍摄的脸部图像中的多个潜在变化因素,其中多个潜在变化因素的乘法交互通过多线性(张量)结构明确地建模。该方法学习了面部表情和姿态的分离表示,可用于各种应用,包括面部编辑,以及三维面部重建和面部表情、身份和姿态的分类。
Nov, 2017
本文提供了一种使用预训练网络来学习数据的解缠表示的方法,以实现最小的监督,同时展示了该方法在头部图像领域上成功将身份从其他面部属性中解缠并显示出较好的评估结果。
May, 2020
使用变分自编码器 (Variational Autoencoders),通过增加最小化对抗互信息项来消除样式 (Syle) 表示中的内容 (Content) 信息,从而实现有效地分离内容和样式相关属性。
Jan, 2020