序数回归的单模分布
本文提出了通过使用泊松分布和二项分布来约束离散序数概率分布为单峰态的简单技术,从而避免交叉熵损失产生的概率分布具有不良性质,并在深度学习的两个大型序数图像数据集上进行了评估,取得了良好的效果。
May, 2017
通过三个原则,我们提出了一种全面自适应的标签分布学习方法,称为单峰浓缩损失方法,它使用学习排序策略获得单峰分布,并将估计误差和预测分布的方差集成到损失中,具有在年龄和头部姿态估计等回归任务上表现优越的结果。
Apr, 2022
本文提出了学习概率顺序嵌入来表示每个数据的方法,这些嵌入由多变量高斯分布表示,以更好的建模回归中的不确定性,并且可以与流行的回归方法集成,通过实验结果证明其具有竞争性的表现和确定性评估的能力。
Mar, 2021
本文研究了单变量学习模型的分数输出的最优单峰转换,并证明了分数值和目标区域之间的最优映射是一个矩形函数。我们提出了一种顺序方法来生成观察样本的最优矩形适配,并且该方法可以随着每个新样本的到来进行估计。我们的方法每次迭代的时间复杂度为对数,效率是最优的。
Apr, 2023
本文通过理论分析,在高维数据考虑时,通过经验风险最小化框架的分类性能,针对两类高斯混合问题,提出了精确的分类误差预测,并且提出了在岭正则化和非正则化的情况下,都采用简单的平方损失作为高维分类的最优选择。
May, 2019
通过理论考虑和数值实验,本文研究了阈值法在阶序回归问题中的分类性能与数据分布以及一维转换学习程序之间的影响。研究发现,当目标变量在解释变量条件下的概率分布趋向于非单峰分布时,基于典型学习程序的阈值法可能表现不佳。此外,基于分段线性损失函数的学习程序得到的一维转换值集中于少数几个点,这可能导致难以对数据进行良好的分类。
May, 2024
本文介绍了统计信息度量、多向贝叶斯假设检验、多类问题的损失函数和多分布 f - 分歧的统一视图,并阐述了这些对象之间的等价结果,为二元结果空间拓展已有结果,将 $f$- 分歧推广到多分布,提供了差异、统计信息(按 DeGroot 定义)和多类分类的损失之间的构造等价性。
Mar, 2016
使用多输入流同时训练多模态神经网络在直觉上有优势,但在实践中具有挑战性。本文通过深度多模态线性网络的理论研究,揭示了联合训练中的单模态偏差问题,包括它与网络结构、数据统计和初始化的关系,以及它可能导致的泛化缺陷和永久性单模态偏差。此外,研究结果还表明,首先学习的模态未必对输出起更大的贡献。
Dec, 2023
本研究研究计算机视觉中回归问题的分类方法,发现使用交叉熵损失的分类方法比均方误差损失的回归方法具有更好的性能,同时提出了一种序数熵损失方法以鼓励高熵的特征空间并维护序数关系来提高回归任务的性能。实验结果表明增加熵对于回归任务的重要性和好处。
Jan, 2023