使用双层优化重新加权数据的挑战
本文提出了一种新颖的正则化训练神经网络的方法,基于交叉验证的原则,通过使用验证集来限制模型过拟合,其中通过引入在每个小批量训练集上的权重来控制过拟合,并通过在验证集上最小化误差来选择其值,此项工作可与其他正则方法和训练方案相结合,研究表明其显著提高了模型的泛化能力,特别是在标签嘈杂情况下。
Sep, 2018
在现代机器学习中,基于网络规模的大型神经网络学习成为核心。本研究考虑在一个与应用领域不匹配的混杂预训练数据集的情况下,通过调整预训练分布的算法来适应目标测试条件。通过在线双层优化问题的一种近期表述,提出了一种算法,并考虑了可扩展性,该算法优先计算在训练点上的梯度,这些点最有可能改善目标分布上的损失。从经验证实,在某些情况下,这种方法比现有的领域适应性策略更加有益,但在其他情况下可能不成功。我们提出了一个简单的测试来评估我们的方法何时表现良好,并指出进一步的研究来解决当前的限制。
Nov, 2023
利用变分正则化方法求解线性反问题时,采用超参数调节正则化项,通过强化先验信息来提高求解结果,核心问题在于如何选择一个合适的正则化参数。本文提出了一个新的条件来更好地描述正则化参数的正性,并验证和探索了这个新条件,同时也探究了这个新条件在小和大维问题上的应用。
May, 2023
探讨了基于梯度的算法对二层次优化的隐含偏差,阐明了冷启动和热启动的两种标准方法,并阐述了这些和其他算法选择(如超梯度逼近)对收敛解决方案或长期行为的影响。此外,还表明了热启动 BLO 获得的内部解可以编码关于外部目标的大量信息,即使外部参数是低维的。
Dec, 2022
我们介绍了一种新的功能性观点,用于机器学习领域的双层优化问题,其中内部目标函数在函数空间上最小化。我们提出了可扩展和高效的算法来解决这个功能性双层优化问题,并且通过在仪器回归和强化学习任务上展示了我们方法的优点。
Mar, 2024
本篇研究提出 Differentiating through Bilevel Optimization Programming (BiGrad) 模型,旨在将 Bi-level Programming 加入到神经网络中,通过类别估计算法以降低计算复杂度并支持对于连续变量的处理。实验结果表明,该模型成功地将传统单层方法扩展到了 Bi-level Programming
Feb, 2023
本文研究如何在模型错配偏差情况下学习线性预测模型。我们提出了一种样本重新加权方法,该方法可以减少输入变量之间的共线性,从而提高设计矩阵的条件,并与任何标准学习方法相结合,用于参数估计和特征选择,进而提高模型在不同分布数据集下的稳定性。
Nov, 2019
该研究提出了一种基于元学习和梯度下降的新算法,来对训练样本进行权重分配,从而达到解决深度神经网络在训练集偏差和标签噪声方面的过度拟合问题,而不需要额外的超参数调整,并在少量有干净核准数据的情况下,实现了在类别不平衡和标签污染问题上的出色性能。
Mar, 2018