- 高效且可解释的强化学习算法
在现代机器学习中,我们设计了一种既高效又可解释的强盗算法来解释模型的重要性。通过引入一种新的不确定性损失度量标准,我们量化了可解释性,并通过基于约束的最优设计提出了 CODE 算法,它是可解释的且能最大程度地减少不确定性。我们通过数值实验在 - 学习可解释规则的可扩展数据表示和分类
我们提出了一种新的分类器,命名为基于规则的表示学习器(RRL),它能够自动学习用于数据表示和分类的可解释的非模糊规则,并通过连续空间和梯度移植来优化离散模型,同时设计了逻辑激活函数以提高可扩展性和连续特征离散化。与竞争的可解释方法相比,RR - 扩散随机特征模型
我们提出了一种受扩散模型启发的深度随机特征模型,它具有可解释性,并给出了与具有相同可训练参数数量的全连接神经网络相当的数值结果。我们通过对采样数据分布和真实分布之间的得分匹配性质的属性来推导了随机特征的泛化界限,并通过在时尚 MNIST 数 - 通过概念瓶颈模型实现强大且可解释的医学图像分类器
通过使用自然语言概念,我们提出了一种建立强大而可解释的医学图像分类器的新范式,有效地解决了深度学习模型在医疗行业应用中学习虚假相关性而不是期望特征以及缺乏可解释性的问题。
- DeepDecipher:大规模语言模型中神经元激活的访问和研究
通过 API 和界面,DeepDecipher 为调查 Transformer 模型 MLP 层中的神经元提供先进的可解释性技术,使大型语言模型 (LLMs) 更具透明度和可靠性,可以帮助研究人员、工程师和开发人员快速诊断问题、审计系统并推 - 缓解零碎相关性对基于部分的学习的影响
通过创新的正则化方法,本研究指出基于部件的表征可以通过两种方法变得更易解释且泛化能力更强,其中第一种方法通过唯一的部分混合形式将前景和背景信息的生成过程分开,通过弱监督损失对部分施加结构约束,保证前景和背景的部分混合具有软性、与对象无关的掩 - DTW+S:基于形状的有序局部趋势的时间序列比较
测量时间序列数据之间的距离或相似性是许多应用的基本方面,包括分类和聚类。我们的目标是开发一种可以查找相似时间点附近发生的相似趋势,并且对应用领域的研究人员易于解释的度量。我们提出了一种新颖的度量方法 DTW+S,它创建了一个可解释的时间序列 - 一种非侵入性可解释的中医舌象结合 NAFLD 诊断方法
该研究提出了一种非侵入性、可理解的非酒精性脂肪肝病诊断方法,将患者的生理指标与舌部特征相结合,通过自动学习选择重要特征的能力,实现了 77.22%的准确度,提供了令人信服的解释能力矩阵。
- 基于代替的语义变化检测使用上下文嵌入
使用上下文嵌入测量语义变化的简化方法,仅依赖于最可能替代被遮盖术语的方法,不仅这种方法可直接解释,而且在存储效率、性能及变化细致调查方面均表现优越。
- 可解释的基于深度学习的影像生物标志物的机器学习模型用于阿尔茨海默病的诊断
机器学习方法在自动早期诊断阿尔茨海默病方面展示了巨大的潜力。本研究提出了一种结合可解释性增强机器(EBM)和基于深度学习的特征提取的框架,以高维成像数据为基础有效识别阿尔茨海默病及认知下降。该框架具有可解释性并通过提供每个特征的重要性来解释 - ICCVStyleDiffusion: 通过扩散模型实现可控的解耦风格转移
通过提出一种新的内容和风格 (C-S) 分离框架来实现风格迁移,利用 CLIP 图像空间中的显式内容信息提取和隐式学习得到互补风格信息,以实现可解释和可控的 C-S 分离和风格迁移,通过扩展扩散模型的风格去除和生成能力,实现了卓越的结果和灵 - 使用近端梯度下降有效因式分解布尔矩阵
本研究提出了一种使用弹性二进制正则化的布尔矩阵分解算法,以降低计算成本并提高可解释性,在合成和真实数据上实现了良好的结果。在医学领域的案例研究表明了该算法的结果易于解释和语义意义重大。
- KDDIERL: 可解释的集成表示学习 —— 结合众包知识和分布式语义表示
研究通过使用知识图谱来优化大型语言模型的性能,并提出了一种能够解释的集成学习方法 (IERL),在 General Language Understanding Evaluation (GLUE) 任务中表现良好。
- 可微分决策树是否能够学习可解释的奖励函数?
使用 Differentiable Decision Trees 学习可解释的奖励函数,研究表明其能够学习可解释的奖励函数,但树的离散性会降低强化学习的性能。
- 基于模式学习和重绑定机制的上下文学习和新生现象
通过使用克隆结构因果图,可以获得与 transformer-based 大型语言模型相当的上下文学习能力,并且此方法具有良好的可解释性,其关键属性是学习模板(模式)电路以进行模式完成,并以上下文敏感的方式检索相关模板并重新绑定新令牌。
- 语义 HELM: 一种可解释的强化学习记忆
这篇研究通过使用 CLIP 将视觉输入与语言标记联系起来,利用预训练的语言模型作为代理的记忆来提供一个连贯且可解释的过去表征,实现了最先进的性能和在需要记忆过去才能解决任务的环境中表现出优势和劣势,具有可解释性。
- ICML广义教师强制学习混沌动力学
通过对混沌动力系统进行简单的修改以及与可处理的递归神经网络设计的简单架构重排,可以在低维空间中准确还原动力系统,并在真实世界数据上表现出较高的性能。
- 用可解释的铺点表示对漫画重新筛查
提出了一种基于可解释的屏幕色调表示法的自动漫画滤镜生成方法,可有效地降低漫画创作中的人力成本.
- 通过自监督模型行为一致性对时间序列解释进行编码
TimeX 通过引入模型行为一致性的新颖表述来训练,通过生成离散归属度量和学习解释的潜在空间,提供更具解释性和灵活性的解释方法,能够有效地进行时间序列建模的解释和预测。
- ICML学习预设的 ReLU 网络
研究使用观测数据从一组离散处理选项中学习最优策略的问题。我们提出了一种分段线性神经网络模型,可以平衡强的规定性能和可解释性,称为规定性 ReLU 网络或 P-ReLU。通过实验,我们验证了 P-ReLU 相对于竞争基准的更高规定准确性。