- ACLMIDGARD: 使用最小描述长度进行结构化常识推理的自一致性
使用大型语言模型生成推理图的结构化推理任务中,我们提出了一种基于自洽性和最小描述长度 (MDL) 的方法 (MIDGARD),它通过对不同图样本进行一致属性的鉴别,从而在保持精确度的同时拒绝错误属性并包含遗漏元素,表现出超越其他结构化推理任 - 表示学习的最小描述长度和泛化保证
设计高效的统计监督学习算法的一大挑战是找到不仅在可用训练样本上表现良好,也在未知数据上表现良好的表示方法。本文建立了一个压缩性框架,通过标签或潜在变量(表示)的 “最小描述长度”(MDL)来推导表示学习算法的泛化误差的上界。通过与固定先验的 - 通过程序生成探索人类计划的层次结构
人类的行为具有层次性,通过将任务分解为子任务或将抽象行为分解为具体行为而产生。本文通过观察人们生成具有明确层次结构的行动序列的程序,探究人们如何形成层次结构的计划,并发现人类在计划时对效用最大化和最小描述长度两个指标敏感,但同时具有超越最小 - 基于本地指数族的光纤束改进的 MDL 估计器
使用两部分代码进行通用编码的最小描述长度 (MDL) 估计器进行了分析,对于一般参数族,在某些正则条件下,我们引入了一种两部分代码,其遗憾接近于最小最大遗憾,其中对于目标族 M 的一个元素实现的理想代码长度与代码长度之间的差异是遗憾。我们通 - 变分密度传播持续学习
深度神经网络在真实世界中经常面临着分布漂移、各种类型的噪声和概念目标的变化。本文提出了一个适应连续学习数据分布漂移的框架,通过贝叶斯推断中的不确定性量化来缓解灾难性遗忘问题。通过优化一个闭式 ELBO 目标,通过传播分布的前两个矩阵(均值和 - 神经网络语法归纳的泛化性能基准
给定一个模型和一个形式语法,该方法分配一个表示模型对未见样本进行泛化能力的得分,该得分与模型的训练数据量成反比。通过使用形式语言作为基准,我们评估了不同架构的神经网络,并发现使用最小描述长度目标(MDL)进行训练的模型比使用标准损失函数进行 - 用最小描述长度聚类法度量有意义图片复杂度
提出了一种基于层次聚类和最小描述长度的图像复杂度衡量方法,可以正确识别出白噪声图像,并在多组实验中表现出最准确的衡量结果,同时还可以从不同层次的聚类中揭示出复杂度的局部和全局特征以及相关构成因素。
- 用于处理异常值和重尾分布的两级直方图
本文主要介绍了基于 MDL 原则的 G-Enum 直方图方法,不需用户参数即可构建直方图。对于特殊情况,提出了适用于离群值或重尾分布等两种不同情况的两级启发式方法。经过大量实验证明了该方法的优势。
- 学习细节:基于贝叶斯结构学习的实例级别
提出了一种新的概率图模型结构学习方法,通过在随机变量实例化级别上操作来学习,推广和解释在这些难以捉摸的领域中,从而解决机器学习方法在精度不尽如人意的情况下的问题,并且通过 Bayesian Knowledge Bases(BKBs)来利用 - 基于 MDL 的序列规则压缩
本文通过最小描述长度 (MDL) 和两个度量标准来进行连续规则的压缩,提出了一种基于设计的连续规则编码方案的 MDL 压缩解决方案 ComSR。实验结果表明,该方法能够找到一组有效的、紧凑且有意义的连续规则,从而实现数据库的压缩,为降低存储 - EigenNoise: 一种对启动表示进行对比学习的先验
本研究提出了一种基于稠密、独立共现模型的简单初始化方案,具有与经验训练的 GloVe 相当的性能,并探索了基于谐波语言结构理论的更智能初始化方案的可能性。
- ICML基于标签描述模式的分类错误特征化方法
通过最小描述长度原则,我们提出了用于全局、可解释无歧义地描述分类器的模式的算法 Premise,可以有效地理解现代 NLP 分类器的系统性错误。
- 从零开始学习卷积
本文通过研究最小描述长度作为指导原则以了解引出卷积的归纳偏差,提出了 $eta$-LASSO,一种简单的 LASSO 算法变体,用于学习具有本地连接的架构,并在图像分类任务上实现了最先进的准确性,为训练全连接网络提供了桥梁,使其在 CIF - 具有最小描述长度的信息论探测
本文提出了一种信息论探测方法 —— 最小描述长度(MDL)探测来评估预训练表示编码语言属性的效果,该方法不仅能考虑到探针模型的大小,还能评估实现高质量预测所需的数据量。
- 基于顶点替换语法的可解释图建模
本文介绍了一种称为 KT 语法的特殊类型的顶点替换语法,根据最小描述长度启发式方法从图形中提取,该语法可以有效地从图中提取出表示实际系统动态的有意义的模式。
- KDD应用最小描述长度原则在多分辨率人口数据中识别线性模型,预测家庭收入
本文提出了一个框架,利用回归分析和最小描述长度(MDL)来寻找一组具有共同特征的最大区域,以便为预测家庭收入确立单一政策,并使用该框架的结果作为指导方针,支持政策制定者制定与贫困和其他问题有关的政策。
- 使用 MDL 区分因果和混杂问题,我们不是你的真实父母
本文根据 Kolmogorov 复杂性提取因果关系方法,利用最小描述长度原则模型比较非潜变量模型和潜变量模型,采用概率 PCA 方法寻找成因的潜在因素,在真实和合成的数据实验中表现良好,准确性与置信度相辅相成。
- 深度神经网络的熵受限训练
该研究提出了一种神经网络压缩的通用框架,通过最小描述长度原则和熵来量化其复杂度并使用基于梯度的优化技术实现了优秀的压缩结果。
- 基于 MDL 的局部和全局回归区分因果关系
本文提出了一种基于信息理论的方法,使用 MDL 原理基于压缩编码对局部和全局函数关系进行编码,提出了 Slope 算法,并在合成和真实数据上展示了比现有技术更佳的性能,用于解决从观测数据中推断两个单变量数值随机变量之间因果关系的问题。
- BitNet: 比特正则化深度神经网络
BitNet 是一种基于 Minimum Description Length (MDL) 原则,通过动态限制网络参数的可取范围和值,优化训练神经网络的方法, 在 MNIST 和 CIFAR-10 数据集上通过优化实数值翻译和缩放因子以及任