- ICML改进数据集简化中的伪相关性
调研发现,数据集压缩过程中原始数据集中的颜色和背景偏差会被放大,而污染偏差会被抑制;为减少偏差放大,我们提出了一种基于样本重新加权方案的简单但高效方法,实证结果显示其有效性高于最先进的去偏方法。
- 通过显著特征去相关化学习通用代理
我们提出了基于显著性引导的特征解相关方法 (SGFD),通过样本重新加权消除观测状态空间中特征之间的相关性,以实现在视觉强化学习任务中的泛化能力。实验结果表明,SGFD 在处理任务无关和任务相关的变化方面明显优于现有方法。
- 协变量转移适应中的一般正则化
通过重新加权样本,本研究在再生核希尔伯特空间中修正最小二乘学习算法的误差,以解决未来数据分布与训练数据分布不同引起的问题,并证明在弱平滑条件下,相比现有分析所证明的,为了达到与标准监督学习相同精度所需的样本数量更小。
- 最佳努力适应
通过重写样本的方法,设计出适用于少量标记样本目标域的有效预测器,并提出了适用于标记数据较少或目标域不存在标记数据的标准域适应问题的改进解决方案和算法。
- 模型无关样本重新加权用于数据集外学习
提出一种方法(MAPLE),通过样本重新加权,处理机器学习模型的过度拟合问题,特别针对过度参数化的情况,从而有效提高模型的超出分布的泛化能力。
- AAAI稀疏变量独立性稳定学习
本研究提出了一种包含稀疏变量独立和样本加权选择的迭代算法 SVI 来解决协变量偏移泛化问题,在合成和实际数据集上的实验表明 SVI 可提高协变量偏移广义性能。
- 具动态样本加权的噪声鲁棒性双向学习
本文提出了一种双向学习方案,在保证收敛速度的同时,通过负样本的强大辨别能力来有效地处理标签噪音。此外,该文还提出了一种动态的样本重新加权策略来全局削弱噪声标记样本的影响,并结合自蒸馏来进一步提高模型性能。
- IJCAI双重加权领域泛化用于人脸防攻击检测
本研究提出了一种基于双重加权域泛化(DRDG)的人脸反欺诈方法,采用样本和特征双重加权机制来挖掘更多与域无关的特征,以提高模型的泛化性能。实验证实了该方法在人脸反欺诈领域具有可比性和可解释性。
- 深度度量学习的实例交叉熵
提出了一种称为 Instance Cross Entropy(ICE)的新的深度度量学习方法,通过 mini-batch 迭代学习并扩展到无限训练数据,同时利用样本权重调整来控制训练中样例的差异度,实验证明其具有简单性,直观性,易于解释性和