该研究提出了一种基于元学习和梯度下降的新算法,来对训练样本进行权重分配,从而达到解决深度神经网络在训练集偏差和标签噪声方面的过度拟合问题,而不需要额外的超参数调整,并在少量有干净核准数据的情况下,实现了在类别不平衡和标签污染问题上的出色性能。
Mar, 2018
通过元训练和在线权重逼近方法,本文旨在解决使用深度神经网络时出现的噪声标签和训练集偏差对模型表现造成的问题,并通过使用充满挑战的不平衡图像数据集进行皮肤癌检测的真实问题来验证这一方法。
May, 2024
本文研究如何在模型错配偏差情况下学习线性预测模型。我们提出了一种样本重新加权方法,该方法可以减少输入变量之间的共线性,从而提高设计矩阵的条件,并与任何标准学习方法相结合,用于参数估计和特征选择,进而提高模型在不同分布数据集下的稳定性。
Nov, 2019
本文提出了一种基于半监督的 “保真度加权学习” 方法,通过利用高质量数据的后验概率调节参数的更新,使用弱标记数据对深度神经网络进行训练,同时提高任务相关数据表示的可靠性。在信息检索和自然语言处理领域中,我们的方法优于现有的半监督学习方法,表明该方法能更好地利用强弱标签数据,提高模型性能。
Nov, 2017
本文探讨了一种主要用于训练深度神经网络的知识蒸馏方法,其使用未标记的数据集作为输入。该方法提出了一种基于 “去偏” 方法的小网络共同训练框架,不需要超参数并且能在普遍学术数据集上展示出明显的改进效果。
Oct, 2022
本文提出了一种学习样本快速再加权方法(FSR),该方法通过历史记录学习构建代理奖励数据和特征共享以降低优化成本,无需额外奖励数据和昂贵的二阶计算,并在标签噪声鲁棒性和长尾识别方面达到具有竞争力的结果,同时显着提高了训练效率。
Sep, 2021
该研究提出了一种利用权重融合方法的持续学习新方法,通过在每个新任务之后插值旧模型和新模型的权重,将两个模型合并,以便探索新概念到来后出现的局部最小值。实验结果表明,提出的权重融合方法明显改善了最先进的经验重放算法的性能。
Apr, 2024
通过重新赋值训练数据的权重,我们提出了一种基于指数倾斜假设的分布转移模型,用于为目标任务学习训练数据的重要性权重,以最小化有标签的训练数据集与无标签的目标数据集之间的 KL 散度,并应用到水鸟和品种基准测试中展示了方法的有效性。
May, 2022
本文提出了一种半监督的学生 - 教师模型 ——“fidelity-weighted learning”,通过模拟教师网络来根据标注品质的置信度调整每个样本在学生网络的参数更新中所占比重,从而在使用弱标注数据进行深度神经网络训练时取得比主流半监督学习方法更好的性能。此方法在文本排序任务上表现优异。
Jun, 2018
提出一种使用 MW 重新加权示例的神经网络优化方法,该方法在标签存在噪声的情况下稳健且可提高准确性,同时不会影响其对抗鲁棒性。
Feb, 2021