本文旨在解决机器学习中的评估指标通常难以作为损失函数的问题,通过重新审视代理损失学习,并提出了一种基于排名相关性优化的方法来最大化代理损失和度量之间的关系进行代理损失学习。实验证明,该方法在图像分类、神经机器翻译等各种任务上都获得了显着的效率和性能提升,并在人体姿态估计和机器阅读理解任务上优于现有方法。
Feb, 2022
本文提出了一种新的方法来推导可微的替代损失函数,以用于训练包含每个输入 - 输出对的得分的模型,并在语音识别任务中证明了其有效性。
Nov, 2015
UniLoss 是一个用于训练深度网络的统一框架,它可以自动生成代理损失,减少针对各种任务设计代理损失的人工程作。通过内插,UniLoss 可以为不可微分步骤生成可微分的近似值。使用 UniLoss,我们可以使用一个统一的框架优化不同的任务和指标,比使用特定于任务的损失达到相当的性能。在三个任务和四个数据集上验证了 UniLoss 的有效性。
Jul, 2020
本文主要介绍了在深度网络训练中设计适当的损失函数的重要性,特别是在语义分割领域,介绍了自动设计指标特定损失函数的方法,并介绍了代替度量中不可微分操作的可参数化函数以及在参数搜索中使用的两个约束。实验表明,所搜索的替代损失函数在其他数据集和网络上也具有良好的泛化能力,与手动设计的损失函数相比性能更好。
Oct, 2020
使用神经逼近的替代函数来解决具有未定义或零梯度问题的图形优化,适用于渲染、程序建模和物理驱动动画中的非凸、非可微黑盒问题。
Aug, 2023
研究凸代理损失函数与二元分类问题中线性预测的分类误差率最小化之间的关系,发现在所有凸代理损失函数中,铰链损失提供了最佳的界限。同时,提供了特定凸代理损失的下界,显示常用损失函数之间的区别。
Jun, 2012
本文提出了一种针对非可分离损失函数的在线学习框架,通过引入新型算法设计和分析,该模型具有高效的在线学习算法,具有亚线性遗憾和在线转换界限;进一步开发了可扩展的随机梯度下降求解器,经过实验在真实数据集上证明,该方法比近期提出的切割面算法快得多。
Oct, 2014
通过使用可学习的景观代理(Landscape Surrogate)作为优化器的替代品,可以在学习集成优化中加速优化过程,提供相对稠密和平滑的梯度,在合成问题和真实世界问题中实现优化目标,同时降低对优化器的调用次数,并在计算复杂度高的高维问题上优于现有方法。
Jul, 2023
本文提出了一种通过最小化近似目标评估指标的替代损失来训练神经网络的技术,其中代理通过深度嵌入来学习,有效性在场景文本识别和检测任务中得到了证明。
通过将优化问题表示为元变量的线性组合,我们学习了大规模优化问题的低维代理模型。通过端到端地训练低维代理模型和预测模型,我们实现了训练和推断时间的大幅减少,同时通过关注优化中的重要变量和在更平滑的空间中学习来提高性能。
Jun, 2020