关键词interpretable algorithms
搜索结果 - 7
- 选择医疗机器学习模型的可解释性技术
在医疗保健领域,追求使用可解释的算法来协助医疗专业人员在多种决策场景中。针对预测性、描述性和相关性(PDR)框架,将可解释机器学习定义为一个能够明确且简单地确定数据中所含或模型所学关系对其功能和模型分类至关重要的机器学习模型,并根据后续操作 - 复杂模块算术中解释曲解的变形金刚
通过解释性的逆向工程,我们观察到通过 Grokking 在复杂模块化算术中学习到的内部电路,强调了它们动力学的显着差异,此外我们引入了模块化算术的新进展衡量以及可识别模型的内部表示。
- 基于函数 ANOVA 框架的可解释机器学习:算法和比较
该论文介绍了可解释的机器学习算法的重要性,重点讨论了低阶函数 ANOVA 模型框架以及解释性强的算法,例如 Explainable Boosting Machines 和 GAMI-Lin-T,并使用数据集比较了算法性能。
- 变分信息追求用于可解释预测
本文提出了解释算法的信息搜索策略,即 Information Pursuit (IP) 和 Variational Information Pursuit (V-IP),利用深度网络训练策略和分类器以进行推断,且应用于医学诊断等任务中具有更 - 学习最优公平分类树:可解释性、公平性和准确性之间的权衡
本研究设计了一个 MIO(mixed integer optimization)框架,用于学习最优的分类树算法,以及与任意公平性约束进行扩展;提出了一个新的模型可解释性度量标准,称为决策复杂度;在流行数据集上,我们对公平性、可解释性及预测准 - 神经库的可微程序
通过使用不同的可微编程语言和神经网络的框架,我们创建了端到端可训练系统,可以学习编写带感知元素的可解释算法。通过模块化结构和归纳偏差,我们证明了可以学习一组不断增长和改进的 (神经) 函数库,这可以带来比基线更高效的新任务知识传递。
- 轨道的另一侧:大数据与受保护的类别
使用机器学习进行公共政策时,伦理问题涉及到有用变量与不基于这些变量的决策。信息理论允许我们降低预测的相关性以保护受保护的变量,但是还需要开发新的可解释机器学习算法来引用因果机制。