带稀疏性的可解释增强机器 -- 在高维环境中保持可解释性
针对计算机视觉中的不透明模型解释困难的问题,同时受到科学研究对可解释的模型的需求,该研究提出了将易于解释的 EBM 模型扩展至科学图像领域的方法,并通过 Gabor 小波变换对图像数据进行处理,改进了当前图像可解释性方法。
May, 2023
通过使用替代交叉功能选择、集成功能和模型配置技术等新方法,改进了可解释性较强的 EBM 模型,以提高其可靠性和解释性,并在三个基准数据集上进行了验证。
Jul, 2023
本研究证明在可解释的机器学习模型 Explainable Boosting Machines (EBMs) 中添加差分隐私可以保证隐私同时获得最先进的准确性,同时提供准确的全局和局部可解释性。
Jun, 2021
通过评估一种高效的可加性模型,本研究在三个热门混合交通数据集上对交通预测进行了评估,结果显示该模型在预测行人目的地方面表现竞争力,对以车辆为主的数据集则提供较为适度的预测,而透明的训练模型使我们能够分析特征的重要性和相互作用,并提供预测解释的质量性示例。
Feb, 2024
通过稀疏引导技术,SparseCBM 提供了对大型语言模型的全面解释,包括输入、子网络和概念级别,同时引入可解释的推断时间干预维度,在模型部署期间实现动态调整,通过实证评估证明 SparseCBM 在解释和改善模型不准确性方面具有深刻的理解能力。
Dec, 2023
DimVis 是一个利用监督可解释的增强机器模型的可视化工具,通过交互式探索 UMAP 投影来提供高维数据分析的特征相关性解释,在转化复杂数据集为简单视觉表示时,增加了解释性,并解决了引入人为失真和解释性问题的困扰。
Feb, 2024
通过采用分层推理方法,大型语言模型(LLMs)能够提供综合的模型级摘要,自动化数据科学中的常见任务,如检测与先前知识不符的异常情况,描述异常情况的潜在原因,并建议消除异常情况的修复方法。以医疗保健领域的多个例子为例,演示了 LLMs 的这些新功能的实用性,特别强调广义加性模型(GAMs)。最后,介绍了开源 LLM-GAM 界面工具包 TalkToEBM。
Aug, 2023
传统修剪方法在大型语言模型中的使用具有挑战性,因为训练过程代价高且计算需求大。我们首次引入隐藏状态特征的信息熵作为修剪度量设计,即 E-Sparse,以提高大型语言模型的 N:M 稀疏性准确性,并通过引入信息熵和几种创新技术来快速优化信息分布和应对 N:M 稀疏性对准确性的影响。E-Sparse 通过 FasterTransformer 实现为 Sparse-GEMM,并在 NVIDIA Ampere GPU 上运行。对 LLaMA 系列和 OPT 模型进行的广泛实验表明,E-Sparse 可以显著加速模型推理(高达 1.53 倍),并实现显著的内存节省(高达 43.52%),在可接受的准确性损失范围内。
Oct, 2023
本文提出了一种可解释性的 Restricted Boltzmann Machines (RBM) 协同过滤方法,该方法能够从可解释的项目中计算出前 n 个推荐列表,并证明了该方法能够生成准确而可解释的推荐结果。
Jun, 2016