快速学习无奖惩数据的样本加权
本文研究如何在模型错配偏差情况下学习线性预测模型。我们提出了一种样本重新加权方法,该方法可以减少输入变量之间的共线性,从而提高设计矩阵的条件,并与任何标准学习方法相结合,用于参数估计和特征选择,进而提高模型在不同分布数据集下的稳定性。
Nov, 2019
该研究提出了一种基于元学习和梯度下降的新算法,来对训练样本进行权重分配,从而达到解决深度神经网络在训练集偏差和标签噪声方面的过度拟合问题,而不需要额外的超参数调整,并在少量有干净核准数据的情况下,实现了在类别不平衡和标签污染问题上的出色性能。
Mar, 2018
本文提出了一种简单而有效的模型无关框架,通过动态学习适应权重来增强因果发现的性能,该权重定量地适合于每个样本的重要度,并已在合成和真实世界数据集上进行了广泛的实验证明,具有稳定且显着的结构学习性能提升,同时缓解了虚假边的影响并推广到异构数据。
Mar, 2023
训练神经网络的新方法通过估计数据分组,有效解决了图像分类中因冗余属性导致的预测问题,在缺少冗余属性标注的情况下以非常快速且直接的方式提供了群体稳健性。
Dec, 2023
本文提出了一种半监督的学生 - 教师模型 ——“fidelity-weighted learning”,通过模拟教师网络来根据标注品质的置信度调整每个样本在学生网络的参数更新中所占比重,从而在使用弱标注数据进行深度神经网络训练时取得比主流半监督学习方法更好的性能。此方法在文本排序任务上表现优异。
Jun, 2018
该论文提出了一种名为 CurveNet 的曲线感知网络,并采用探测和分配的方法,通过元学习自适应地分配适当的样本权重,以解决深度神经网络中常见的数据偏见和样本不平衡问题,并利用 skip layer meta optimization 方法加速了训练速度,该方法在多项具有挑战性的评估指标上取得了最先进的性能。
Dec, 2021
本研究提出了一种学习框架,将元样本选择问题通过严格的理论分析降低到加权 K 均值聚类问题中,提出了两种聚类方法 RBC 和 GBC 以解决 “样本权重不均匀” 问题,并在实际应用中得到了验证。
Feb, 2023
本文提出了自动特征重新加权 (AFR) 方法,使用加权损失重新训练模型的最后一层来减少对非目标相关的模式的依赖,并在几个视觉和自然语言分类基准测试中获得了最佳结果。
Jun, 2023
本研究提出了一种改进的数据重新加权算法,通过将学生模型的内部状态提供给教师模型并使用元梯度一起训练,以增强学生模型训练的自适应样本权重,并在图像分类和神经机器翻译实验中证明了其显著的改进效果。
Jul, 2020