BriefGPT.xyz
May, 2023
信息论泛化界的统一框架
A unified framework for information-theoretic generalization bounds
HTML
PDF
Yifeng Chu, Maxim Raginsky
TL;DR
文中提出了一种利用概率去相关引理、对测度空间中的的概率测度进行对称化、配对和链化等技术来获得学习算法信息论泛化界限的一般性方法,进而得到新的期望值和高概率条件下泛化误差的上界,特别地,还包括了基于互信息、条件互信息、随机链和PAC-Bayes不等式等现有泛化界限的特例。此外,Fernique-Talagrand上界也是一个特例。
Abstract
This paper presents a general methodology for deriving
information-theoretic
generalization bounds
for
learning algorithms
. The main techn
→