BriefGPT.xyz
大模型
Ask
alpha
关键词
generalization loss
搜索结果 - 3
通过贝叶斯数据选择实现模型训练加速
使用轻量级贝叶斯处理和基于大规模预训练模型的即用型零样本预测器,解决了现实场景中标记错误、重复或有偏差的数据在训练中的问题,提高了模型的训练效率。
PDF
10 months ago
ICML
可学习、值得学习且尚未学习的点的优先训练
使用可减少示例并且减少噪点的筛选技术进行训练能够减小无关点对模型学习的干扰。在类似 RHO-LOSS 这样可削减的示例中训练的时间比现有技术短得多,提高了准确性,并在广泛的数据集、超参数和架构中加快了训练
PDF
2 years ago
多重下降:设计自己的泛化曲线
该研究探讨了可变参数模型家族中线性回归的泛化损失,证明了一般化曲线可以有任意数量的峰值,并且这些峰值位置可以明确地受到控制。结果表明,经典的 U 形一般化曲线和最近观察到的双下降曲线不是模型家族的固有属性,而是由数据和学习算法的归纳偏差相互
→
PDF
4 years ago
Prev
Next