Sep, 2023

数据效率、降维、广义对称信息瓶颈

TL;DR对称信息瓶颈(SIB)是一种同时压缩两个随机变量以保留它们的信息的降维技术,我们引入了广义对称信息瓶颈(GSIB),通过探索不同成本函数的形式来研究这种同时降维的代价,同时我们还研究了这种同时压缩的数据集大小要求,结果表明相比于逐个压缩变量,同时压缩需要的数据量在典型情况下达到相同误差所需的数据量要少,因此我们认为这是一种更为通用的原则,即同时压缩比独立压缩输入变量更高效。