关键词generalization performances
搜索结果 - 5
- 装袋法显著提升泛化效果
通过在参数化级别适当地聚合基学习器而非输出级别,Bagging 能够以指数衰减减少慢慢消失的推广误差,从而显著提升推广性能。
- 通过一致性规则将量化感知训练推向全精度性能
该论文介绍了一种新颖的方法 ——Consistency Regularization(CR),通过将邻近数据分布信息注入到 Quantization-Aware Training(QAT)中,有效提高了 QAT 的泛化性能,实验证明该方法显 - MM互信息学习的分类器:从信息理论的角度训练深度学习分类系统
本文用互信息作为代替条件熵来训练深度神经网络分类器,并且在多个基准数据集上进行了实验证明,相对于现有交叉熵损失函数训练的模型,提出的互信息模型 (MILCs) 性能更好,总体测试准确率提升超过 10%。
- 高维度学习始终需要外推
本研究针对高维数据集中插值不可能发生的情况,从理论和实践角度出发,反驳了插值和外推能够准确指示泛化性能的说法,并挑战了当前插值 / 外推定义在泛化性能中的有效性。
- KDD大间距分布式机器
本文介绍了基于边缘分布优化的大边缘分布机(Large margin Distribution Machine,LDM)学习算法,提高了支持向量机算法的泛化性能,该方法通过边缘分布的一阶和二阶统计量,即边缘均值和方差来表征模型,且其在理论和实