使用稀疏扰动进行弱监督表示学习
本文提出了一种称为 SDLGM 的稀疏深度潜在生成模型,可以通过限制表征的非零特征的数量实现数据的稀疏学习,其生成的稀疏表示可以根据观察本身调整,并使用 Gumbel-Softmax 分布进行两步采样生成,采取蒙特卡罗梯度估计器的变分方法进行推论和学习,实验结果表明其性能优于传统的生成模型。
Apr, 2023
提出了一种弱监督信号和对比方法相结合的框架来同时学习解缠和不变表示,实验证明该方法在四个标准基准上均优于现有最先进方法,且无需对抗训练即具有更好的对抗防御能力。
Sep, 2022
使用基于元素之间相似性的自然弱监督,提出了一种从中学习具备高可重用性,去除非目标因素的深度表示的新算法,在合成和真实域上通用的物体姿态转换任务中得到了应用。
Mar, 2021
在非参数的因果表示学习中,通过稀疏约束和适当的因果影响条件,可以恢复有向无环图的势化图,从而揭示潜在因果模型的潜在变量及其关系的特定且复杂的方式。
Feb, 2024
通过对 17 种无监督,弱监督和完全监督的表征学习方法进行测试,本文观察到这些模型对于简单数据集中存在的发生因素都无法正确学习机制,且随着测试数据集的现实性增强,它们的泛化能力显著下降。
Jul, 2021
通过将因果关系理论与矢量量化变分自编码器相结合,我们提出了一种新的基于因果动态的去纠缠方法,将量化向量视为因果变量并将其链接在因果图中,通过对因果图进行因果干预,引发影响图像中唯一变化因素的原子转换。同时,我们通过引入一个新的行动检索任务来测试我们的模型。我们在标准的合成和真实世界的去纠缠数据集上进行了测试,结果表明它能够有效地解缠图像变化因素并对图像的高级语义属性进行精确干预,而不影响其质量,即使在不均衡的数据分布下也是如此。
Feb, 2023
本文研究确定在增强学习中控制的稀疏表示。通过对比标准神经网络表示和具有稀疏性质的神经网络表示,在经典控制域中递增地学习控制策略的表现,证明了稀疏表示更加有效,因为其提供了局部性,避免了灾难性的干扰,特别是保持了稳定的值来引导学习。同时,称之为 “分布式正则化器” 的方法可以鼓励隐藏节点的激活匹配分布,从而产生稀疏的激活状态。该方法提出了一种简单而有效的方式来获取稀疏表示。
Nov, 2018