利用 F - 统计损失学习深度分解嵌入
本文研究使用统计相似度度量为基础,构建了一种新的数据表述方法,不需要深度神经网络训练,快速且精度更高地进行敏感属性的鉴别,从而避免社会偏见。
May, 2022
本研究提出了一种两级分层目标函数来控制变量块和块内个体变量之间的相对统计独立程度,以通过非监督学习从高维数据中学习无监督表示,实验结果显示该目标函数可以解开离散变量,并提高其他变量的解开程度和泛化能力。
Apr, 2018
从多种上下文环境的观察中提取现实的抽象表示是深度学习的一个追求目标之一。本文采用信息论的视角来研究这个问题,提出了一种新颖的正则化方法,称为 CLINIC 损失,通过大量的数值实验证明了这种方法在解缠表征与准确性之间取得更好的平衡,并且在不过于限制解缠任务的情况下具有更好的普适性。
Oct, 2023
本篇论文提出了一种名为 DFR 的新型解缩特征表示框架,它可以适应性地解耦由分类分支建模的有区别性特征和变差分支的类不相关的成分,从而提升了各种少样本任务上深度学习方法的性能,这是通过将其分类分支嵌入 DFR 实现的并在 mini-ImageNet、tiered-ImageNet、CUB 和 FS-DomainNet 等四个数据集上进行了相关实验和测试得出的。
Sep, 2021
本文研究了解离散表示学习的定义,并介绍了将等式定义转化为基于丰富范畴论的相容量化评估标准的系统方法。我们提出了适用于评估去迭代复杂数据的可分离表示抽取器所需性质的量化度量标准,并展示了它们在合成数据上的有效性。我们的方法为研究人员选择合适的评估标准和设计有效的离散表示学习算法提供了实用指导。
May, 2023
本文提出了一种新的基于互信息的解缠度度量来研究负样本自由对比学习方法的解缠特性。作者在高维表示空间中将负样本自由对比学习方法引入解缠表示学习领域,并通过对流行的合成数据集和真实世界 CelebA 数据集的实验表明,该方法可以学到一个良好的解缠表示子集。
Jun, 2022
该研究提出了一种理论上的度量方法来评估机器学习中所谓的 disentangled representations 的质量,这些方法可以让不同的机器学习模型公平地进行比较。
Aug, 2019
用机器学习将数据集的信息划分为有意义的片段,通过研究多次训练运行中学习的通道作为信息片段的整合,并将表示子空间视为数据嵌入的概率分布进行相似度比较,最终实现 VAE 的集成学习以提升信息内容。
May, 2024
提出了一种分析多元表示如何解开基础生成因素的框架,通过部分信息分解方法分析多元表示中的信息共享并提出了新的分离度量,实验发现分离度量对纠缠反应正确,发现分离度量相似的自编码器模型在纠缠方面有不同的特征,需要采用不同的策略来获得分离表示。
Aug, 2021