关键词kullback-leiber divergence
搜索结果 - 2
- 对大型语言模型的知识蒸馏中库尔巴克 - 莱布勒散度的重新思考
通过实证和理论证明,逆向 Kullback-Leiber(RKL)分散度在大语言模型知识蒸馏中并非寻找模式而是均值寻找,与前向 Kullback-Leiber(FKL)优化目标相同,经过足够多的迭代后二者收敛。基于实践约束,提出了一种简单而 - 密度估計中的下界和聚合
本文通过对 M 个密度估计器进行聚合过程来证明其最优性,并针对 KL 距离、Hellinger 距离和 L1 距离类型的模型选择估计器证明了下限,其中 KL 距离的下限可以通过 Yang (2000) 等人建议的在线估计获得。这些结果的结合