BriefGPT.xyz
Ask
alpha
关键词
ensemble distribution distillation
搜索结果 - 4
基于逻辑回归的集成分布蒸馏用于鲁棒性自回归序列不确定性
本研究考察了在大规模自然语言序列到序列数据中应用 Ensemble Distribution Distillation (EDD)来压缩昂贵的集成模型的优越性能为成本较低的单一模型的有效性,既能够分离知识(认识不一致性)和数据(随机数据)不
→
PDF
a year ago
使用代理目标扩展集成分布蒸馏到多类问题
这篇论文提出了一种称为 “Ensemble Distribution Distillation” 的机器学习方法,通过训练 Dirichlet 分布来捕捉整个集成预测和不确定性估计。为了解决在大规模任务中 Dirichlet log-lik
→
PDF
3 years ago
回归先验网络
本文延伸了 Prior Networks 和 EnD$^2$ 模型,通过正态 - 旺季分布,将其应用于回归任务,实现模型的可解释性、不确定性而保留高精度,相关实验结果表明该模型在各领域均表现出与集成模型相当的性能。
PDF
4 years ago
组合分布蒸馏
该论文提出了一种名为 EnD^2 的新方法,它使用 Prior Networks 对模型的输出分布进行建模,并使单个模型保留了集成模型减少计算成本和提高分类性能的同时,还能保留集合多样性的信息,用于估计不确定性。该方法不仅可适用于人工数据集
→
PDF
5 years ago
Prev
Next