关键词minimum description length principle
搜索结果 - 15
- 用语言导向的时间变分推断进行技能学习
我们提出了一种从专家示范中发现技能的算法,该算法首先利用大型语言模型对轨迹进行初步分割,然后采用层次变分推理框架结合语言模型生成的分割信息,通过合并轨迹段来发现可重用的技能。为了进一步控制压缩和可重用性之间的权衡,我们引入了一种基于最小描述 - 非冗余聚类的自动参数选择
该论文提出了一个利用最小描述长度原则(MDL)自动检测子空间数量和每个子空间中的簇数的框架,并描述了一种有效的过程,通过在子空间内进行分裂和合并子空间和簇来贪婪搜索参数空间。此外,介绍了一种编码策略,可在每个子空间中检测异常值。广泛的实验表 - 通过可解释的标记模式理解和减轻分类错误
我们提出了一种方法,通过发现那些区分正确和错误预测的标记模式来获得全局且可解释的描述,从而改善 NLP 分类器的性能。通过一系列实验证明,我们的方法在实践中表现良好,能够在大词汇量的不平衡数据上恢复出真实情况,并对 NLP 分类器的系统错误 - 利用物体为中心的模型和 MDL 原则解决抽象和推理语料库(ARC)
通过使用 Abstraction and Reasoning Corpus(ARC)作为基准,我们介绍了一种与人类生成的自然程序相一致的以对象为中心的模型,这些模型不仅可以进行预测,还可以为输入 / 输出对提供联合描述,并且通过最小描述长度 - KDD使用 MDL 方法寻找数值目标的优秀子组列表
本文提出了一种基于 MDL 原则和子组列表的分散感知问题制定的子组集发现方法,提出了 SSD++ 启发式算法,能够返回具有强烈差异的均值和小变差的紧凑子组的非冗余集合。
- KDDSSumM:稀疏化大规模图的摘要
SSumM 是一种基于最小描述长度原理的可扩展的图形摘要算法,能够合并节点和稀疏的摘要图,达到更好的压缩率和更小的重构误差。与现有方法相比,SSumM 更简明、更准确、更可扩展。
- 最小描述长度的再探讨
这篇论文是一篇对最小描述长度(MDL)原理的介绍和概述,讨论了在统计学、机器学习和模式识别等领域中广泛应用的归纳推理理论。MDL 可以被视为惩罚最大似然和贝叶斯方法的一种强大扩展,其中惩罚函数和先验分布被替换成更一般的幸运函数。
- AAAI多个独立子空间聚类
提供了一种称为 Multiple Independent Subspace Clusterings 的两阶段方法,其中第一阶段使用独立子空间分析来寻求多个和统计独立的子空间,第二阶段使用图形规范化的半非负矩阵分解来探索集群,实验结果显示其在 - 基于 MDL 的规则列表的可解释多分类
本文介绍了一种基于概率规则列表和最小描述长度原则的模型选择方法,该方法可以在减小模型复杂度与保持良好拟合度之间进行折衷。同时,介绍了 Classy 算法,该算法针对多类别分类问题,选择小的概率规则列表,实现了良好的性能和可解释性。
- 跨域潜在同源的终身解缠结表示学习
本文提出了一种基于最小描述长度原则的变分自编码器算法,可以实现无监督表示学习,并可以自动检测数据分布的变化并为新知识分配足够的表示空间,同时保护以前学习的表示免于灾难性遗忘,该方法可以实现表示的分离,具有共享潜在特征的语义上有意义的特征,同 - NIPS深度学习模型的描述长度
通过实验证明,即使考虑到参数编码,深度神经网络仍能够压缩训练数据,而这种压缩视角最初激励了神经网络中变分方法的使用。我们发现,这些变分方法提供了惊人的较差压缩界限,这可能解释了变分方法在深度学习中相对较差的实际性能。另一方面,简单的增量编码 - KDD串行模式挖掘的子序列交错模型
本文提出一种基于概率模型的新型子序列交织模型,利用 MDL 原则定义了一种编码方案,能够高效地挖掘最相关的顺序模式,并使用相关的趣味性度量对其进行排序,同时使用结构化的期望最大化框架进行有效的推断。实验结果表明该模型挖掘出的模式具有低的错误 - 简洁有效:使用多元模式总结复杂事件序列
本文研究了如何利用富有多变量的序列模式获得离散多元序列数据的简明描述,并通过最小描述长度原则提出了一种高效的算法 DITTO,能够快速而准确地发现数据的高质量模式,从而提供了一个易于理解的数据总结。
- 学习贝叶斯网络的样本复杂度
研究使用最小描述长度(MDL)原则基于样本复杂性学习贝叶斯网络,并提出了使用样本复杂性结果加速学习过程的方法,同时表明了以熵距离为误差阈值的 epsilon-close 近似所需样本数量是 O ((1/epsilon)^(4/3) log - 最小描述长度和背景知识在子结构发现中的应用
SUBDUE 使用最小描述长度原则和计算约束的近似图匹配方法,在发现压缩原始数据、表示重要结构概念方面能力强,向更合适的子结构引导搜索时还可使用其他背景知识。