BYOL-Explore: 基于自举预测的探索
本研究提出 Bootstrap Your Own Latent (BYOL) 作为一种自监督学习方法,用于图像表示学习,并探讨与批归一化 (batch normalization) 的关系。实验结果表明,使用批独立归一化可以取得与传统 BYOL 相当的性能,未必需要批归一化。
Oct, 2020
本文提出了一种新的自监督图像表示学习方法 Bootstrap Your Own Latent(BYOL),通过在线网络和目标网络相互交互和学习,从图像的增强视图中训练在线网络以预测在不同增强视图下相同图像的目标网络表示,并同时使用在线网络的缓慢移动平均更新目标网络,通过使用 ResNet-50 架构进行线性评估,BYOL 在 ImageNet 具有 74.3%的 top-1 分类准确率,在转移和半监督基准测试中 BYOL 表现与当前技术水平相当或更好。
Jun, 2020
自预测学习是增强学习代理的关键挑战之一,本文通过分析一个考虑行动条件的自预测目标(BYOL-AC),利用 ODE 框架描述其收敛性质,并突出 BYOL-Pi 和 BYOL-AC 动力学之间的重要区别,展示了两个表示之间的差异和联系。在线性函数逼近和深度 RL 环境中的实证研究结果表明,在各种不同场景下,BYOL-AC 具有更好的性能。
Jun, 2024
本研究提出了一种基于自我监督学习的通用音频表示学习方法,采用 Bootstrap Your Own Latent (BYOL) for Audio 方法,通过标准化和数据增强技术,从单个音频段中学习音频表示,在各种下游任务中实现了最先进的结果。
Mar, 2021
本研究探讨并观察到使用 BYOL 学习得到的特征对于聚类可能不是最佳的,提出了一种新颖的基于一致性聚类的损失函数,通过提出的方法进行训练可以提高聚类能力,并在一些流行的计算机视觉数据集上优于相似的聚类方法。
Oct, 2020
本文研究了自监督表示学习在三维骨架动作识别中的应用,提出了一种包括两个不对称变换管道的数据增强策略和一种多视角采样方法,利用无标签样本从更宽的网络进行知识蒸馏,实验表明该方案在 NTU-60 和 NTU-120 数据集上表现优于当前的半监督方法和线性评估基准。
Feb, 2022
本文提出了一种基于代价感知的贝叶斯优化方法,旨在通过动态子目标的一系列探索策略来克服稀疏奖励、高昂交互和噪声等挑战,实现在未知分布环境下的政策学习。在实验评估中,平均而言,所提出的算法在问题领域上的表现优于 MAML 元学习算法 19%,超参数调整方法 Hyperband 23%,BO 技术 EI 和 LCB 分别为 24%和 22%。
Oct, 2019
研究 BYOL 中批标准化层的重要性,提出使用 CCSL 和 CSSL 进行相似图片对比的方法来改进 BYOL 的表征学习效果。在 STL10 数据集上使用 CSSL loss 训练 BYOL 框架可以取得较好的效果。
Apr, 2022
Bootstrap Your Own Variance (BYOV) 结合 Bootstrap Your Own Latent (BYOL) 和 Bayes by Backprop (BBB) 方法,提供了关于模型不确定性的先验证据,改善了 BYOL 基线,并在各种扩充测试中展现更好的校准和可靠性。
Dec, 2023