- C - 解缠:在混淆因素的归纳偏差下发现因果独立的生成因素
这篇论文通过引入共变量先验偏好,提出了一种名为 C-Disentanglement 的框架,用于识别因果生成因子,并在领域变化下取得了与各种 SOTA 基准方法相比具有竞争力的结果。
- 阴影数据集:因果表征学习的新挑战性数据集
发现语义因素之间的因果关系是表示学习中的一个新兴话题。而多数因果表示学习(CRL)方法都是完全有监督的,但由于标注成本高昂,因此并不实用。为了克服这一限制,引入了弱监督的 CRL 方法。为了评估 CRL 性能,利用了四个现有数据集,即 Pe - 通过可逆神经网络学习解释的非耦合语义空间
本文提出了一种将 BERT-GPT2 自编码器的隐藏空间转换为更易分离的语义空间的方法,借助于基于流的可逆神经网络 (INN),实验结果表明,这种方法能够比最新的最先进模型更好地实现语义的分离和可控性。
- 混淆下的反事实生成
在机器学习中,当训练数据受到观测或未观测到的混淆影响时,生成的关系可能会与部署时相差较大。本文提出了一种基于因果生成过程的对抗性生成方法,以最小化生成因素之间的关联性,从而生成有效对抗性数据用于训练图像分类器,即使训练数据受到高度混淆的影响 - 基于潜变量交换的弱监督学习解耦表示的 SW-VAE 模型
提出一种名为 SW-VAE 的新型弱监督训练方法,该方法利用数据集的生成因素将输入观测对作为监督信号进行训练,并且引入了逐渐增加学习难度的策略来平滑训练过程。通过多个数据集的实验证明,该模型在表示分离任务上显示出明显的优于最先进方法的改进。
- AAAI因果分离表示
通过因果视角下关联因素的不懈探索,我们提出了两个衡量因果解缠的新指标及数据集,并在最新的表述学习器中进行了实证研究。
- ICCVWarpedGANSpace: 在 GAN 潜空间中查找非线性 RBF 路径
尝试通过对预训练 GAN 潜空间上的非线性扭曲性学习来控制底层生成因素,创新性提出了一种非监督发现可解释潜空间路径的新方法,实验结果表明这种方法替代了现有的方法,并在定量和定性上取得了更好的效果。
- ICLR利用部分信息分解进行解缠分析
提出了一种分析多元表示如何解开基础生成因素的框架,通过部分信息分解方法分析多元表示中的信息共享并提出了新的分离度量,实验发现分离度量对纠缠反应正确,发现分离度量相似的自编码器模型在纠缠方面有不同的特征,需要采用不同的策略来获得分离表示。
- ICML自然聚类下的鲁棒表征学习和解排
我们提出 N-VAE,一种深度模型,能够检测和区分不同类别之间独有和共享的可变因素,并生成包含训练数据中看不到特征的人工样本。
- 基于参考变分自编码器学习分离表示
该研究文章提出了一种基于参照的去混淆学习方法,并使用基于变分自编码器的深度生成模型成功学习到了无标注图像数据中的离散化部分解耦的表征。
- NIPS强制执行解缠变分自编码器的效果量化
本文研究了参数 $eta$ 对分离自编码机性能和分离能力的影响,通过训练多个模型,发现其能够将独立输入生成因素编码为代码的单独元素,从而提高了模型行为的可解释性和可预测性。同时,也确定了分离对自编码机判别能力的负面影响。