自监督学习是从无标签数据中学习表示的重要范例,本文通过研究 SSL 模型的学习动态,特别是通过最小化对比损失和非对比损失获得表示,提出了施加权重正交性约束的 SSL 目标函数,推导出了在 Grassmann 流形上使用梯度下降训练的 SSL 模型的精确(与网络宽度无关)学习动态,证明了无限宽度逼近的 SSL 模型与监督模型的神经切向核逼近有明显偏差,数值实验证明了理论发现的正确性,并讨论了所呈现结果为对比和非对比 SSL 的进一步理论分析提供了框架。
Sep, 2023
本文深入分析了自监督学习的机制以及其对表示学习的影响,揭示了自监督学习在样本聚类方面的潜在驱动作用,同时证实了该方法所训练的表示与语义类别之间存在着密切的对齐关系,并且这种对齐关系随着训练和网络深度的加深而不断增强,这对于提高自监督学习方法的性能和效果具有重要的理论和实际意义。
May, 2023
本文通过广泛的实验和理论分析,系统研究了在数据集不平衡的情况下自监督学习的表现,并通过半合成实验验证了 SSL 学习了与标签无关但可转移的特征,进而提出了一种新的加权正则化技术,显著提高了 SSL 表示的质量。
Oct, 2021
本文研究了自我监督学习在连续流数据中的应用及其效率,提出了重放缓存与最小冗余样本的方法来增强学习。实验结果表明,这些方法可以有效提高表示学习的精度和鲁棒性,在非平稳的语义分布下也不容易出现灾难性遗忘。
Mar, 2022
本文提出了在神经网络中使用自监督学习方法来学习超级表示法,引入了特定领域的数据增强和适应的注意力架构,并通过实验证明该方法能够较好地预测超参数、测试精度和泛化差距,并能用于超越分布场景。
本文研究了自监督学习中编码器和映射器的关系,发现数据增强策略的增加会导致映射器变得更加不变,从而学习将数据投影到低维空间中,具有理论和实验结果的几何学解释。
May, 2022
本研究以自监督学习为切入点,研究了在无标签数据的去中心化学习中,一系列对比学习算法的有效性。在实验结果中,该方法对去中心化数据集的异质性具有鲁棒性,并学习到了目标分类、检测和分割任务的有用表示,同时可以显著降低通信和参与数据源的比例。我们的研究为接受无标签数据的去中心化学习提供了积极的证据,并希望能够提供新的见解,证明和解释分散式自监督学习的有效性。
Oct, 2022
非顺序的表格数据的自监督学习(SSL4NS-TD)的发展、挑战、方法和应用研究的综述。
Feb, 2024
探索了针对自我监督学习 (SSL) 模型的模型窃取攻击,使用这些攻击可以将受害者模型的表示进行窃取并通过训练获得高精度的下游模型。同时,既有的防御方法对于自我监督学习的特殊性不是有效的保护措施。
通过分析梯度公式,我们对基于非参数实例区分的单分支自监督学习方法进行了改进,提出了一种新的自蒸馏损失以减小实例区分中的更新问题,并且在训练开销和性能方面与不同方法进行了系统比较,在不同规模的数据和不同骨干网络下,我们的方法在大大降低开销的同时,比各种基准方法表现更好,尤其在有限数量的数据和小型模型的情况下效果显著。
Apr, 2024