关键词interpretable representations
搜索结果 - 16
- 通过非负矩阵分解和探测实现可解释的设计音频分割
提出了一种基于非负矩阵分解的可解释性音频分割模型,该模型在性能和从非负矩阵中提取的潜在表示的深度分析方面取得良好结果,为评估可解释性表示提供了新的视角。
- 在结构化领域上进行预测性、可扩展和可解释的知识追踪
利用 PSI-KT 方法,通过显式建模个人认知特性和知识先决结构对学习动态的影响,实现可解释性的多步骤预测准确性、可扩展推理和个性化学习,为有效的个性化学习奠定了关键基础。
- 学习理解:通过 Mobius 变换识别交互
这篇研究论文聚焦于机器学习中的一个核心问题,即寻找可解释的函数表示方法。研究工作以 Mobius 变换作为有用工具,通过变换的系数对应于输入变量集合的唯一重要性评分。此算法在小规模交互输入条件下可以准确地恢复 Mobius 变换,同时发现了 - 利用大型多模式模型解释生成模型的潜在表示
我们提出了一个框架,使用大型多模态模型全面解释生成模型中的每个潜在因子,并量化评估我们生成解释的不确定性,从而学习不同生成模型对解释的解缠效果,最后讨论最先进的大型多模态模型的解释能力和局限性。
- 物理增强神经网络的极度稀疏化方法用于机械学中可解释的模型发现
利用神经网络的数据驱动本构模型,在加入物理和机制约束的同时,通过训练及 $l^0$ 正则化的方法,实现了可解释性和可信赖性的简约化表征,适用于可压缩与不可压缩高弹性、屈服函数和强化模型的合成和实验数据。
- 通过稀疏胞复合物在图上表示边流
本文将利用相关的 Hodge 拉普拉斯矩阵的特征向量以及对应的单纯复形的关联矩阵进行 Hodge 分解,为观测数据提供梯度、旋度和谐波流形式的稀疏、可解释表示,从而解决了在图的边缘流中获得稀疏、可解释表示的问题,并通过引入一种高效的近似算法 - 探索锐化余弦相似度
我们的工作中,我们探讨了 Sharpened Cosine Similarity(SCS)参数的行为和潜力,并且研究了在多个卷积神经网络结构中用 SCS 替换卷积的效果。我们发现,虽然 SCS 可能不会显著提高准确性,但可能会学习到更易解释 - EMNLP高效、可解释、可重用系统的微型模型:精神健康案例研究
介绍了一种微模型架构,解决了在精神卫生等难以注释数据集和模型输出具有重大影响的场景下,统计模型准确性高但难以解释、低资源场景下性能下降、不可重复使用、难以集成领域专业知识等问题,该方法具有可解释性,能够嵌入领域知识,并在模型决策过程中提供解 - ICML基于上下文表示的多任务强化学习
提出一种多任务学习的方法,通过元数据构建可组合且可解释的表示,从而改进多任务学习性能,并在一个包含 50 个不同机器人操作任务的具有挑战性的多任务基准 Meta-World 上实现了最先进的结果。
- 使用图网络学习符号物理
本研究提出一种方法,通过对图形网络施加物理学相关的归纳偏差来学习可解释的表示,从而提高零样本泛化能力,并且实验证明我们的图形网络模型可以学习到与真实力量向量相当的消息表示。通过符号回归来拟合我们训练的模型的消息函数的显式代数方程,并恢复牛顿 - EMNLP文本神经元表征的可解释性在自然语言处理中的应用
使用 Gumbel Softmax 层的梯度上升法可将可视化神经元的技术扩展到 NLP 任务中,产生优于传统语料搜索的 n-gram 表示。该表示突出了 Imaginet 架构的语言和视觉模型之间的句法意识差异。
- ICLR通过进化树网络学习回归的简明表示
研究一种学习针对回归问题的可解释表示的方法,将特征表示为由神经网络中常用的激活函数和其他基本函数组成的多类型表达树的网络。通过梯度下降来训练可微分特征,并利用特征在线性模型中的性能来加权每个表示子组件的变化率。该方法可以产生比梯度提升更小、 - 可扩展的分解层次变分自编码器训练
本文介绍一种基于变分推断的分层生成过程的因式分解分层变分自编码器(FHVAE)模型,该模型在许多语音应用方面已被证明可行,但其原始论文中提出的训练算法不适用于规模更大的数据集。本文提出了一种分层采样训练算法来解决这一问题,并对不同类型的数据 - 利用 F - 统计损失学习深度分解嵌入
通过结合深度嵌入和解缠的方法,提出了一种适用于 few-shot learning 的新的表示学习范式,该方法利用基于 F 统计量的新型损失函数来保证不同类别在嵌入空间中的良好分离,并发现解缠表示,以实现解释性更好、更可操作、更可概括的深度 - NIPS无监督学习序列数据的分离和可解释表示
本文提出一种分解的分层变分自动编码器,能够在无监督的情况下从序列数据中学习分离和可解释的表征。该模型基于多尺度信息的分层结构,实现了针对不同潜变量集合的序列依赖先验和序列无关先验。通过在两个语音语料库上的实验,表明该模型能够通过操纵不同的潜 - NIPS使用变分自编码器生成可解释的表示
本文提出了一个框架,利用结构化图形模型在变分自动编码器(VAEs)的编码器中导出可解释的表达,使得在给定图形模型的结构限制下执行推理,并使用深度生成模型处理高维度的杂乱领域变得更容易。同时在无监督和半监督的情况下,通过变分目标进行端对端的学