模型解释的功能信息观
模型解释性在毒性检测中获益于对令牌级注释。我们介绍了一个从新闻论坛获取的用于侮辱语言检测的数据集,其特点是包含奥地利德语方言,包含 4562 个用户评论。除了二进制侮辱分类外,我们还确定了每个评论中构成粗俗语言或代表侮辱性陈述目标的部分。我们以零次和少次迭代的方式评估了微调的语言模型和大型语言模型。结果表明,虽然微调模型在检测粗俗方言等语言特异性方面表现卓越,但大型语言模型在检测 AustroTox 的侮辱性方面表现出更高的性能。我们发布数据和代码。
Jun, 2024
我们介绍了一种名为 Hi-CoDe(层次概念分解)的新框架,通过结构化概念分析来增强模型的可解释性,并且不损害准确性,从而提供对决策过程的清晰洞察和各种概念的重要性的突出,为可解释性设定了新的基准。
May, 2024
通过采样不满足对数凹条件且仅具有弱耗散性的分布来解决深度学习中常见的不满足标准 Lipschitz 光滑性要求的问题,该采样问题要求考虑目标分布满足对数索伯勒夫或某种柯西不等式以及局部 Lipschitz 光滑性假设,通过引入一种与目标分布的增长和衰减特性相关的驯服方案,提供了关于 Kullback-Leibler(KL)散度、总变分和 Wasserstein 距离与目标分布的显式非渐进保证的采样器。
May, 2024
通过设计半自动注释过程,构建了基于多模态大型语言模型生成中间医疗决策理由的新的基准 MedVQA 数据集 R-RAD 和 R-SLAKE,并将其纳入训练过程中,通过三种不同的策略生成决策结果和相应的理由,从而清楚地展示推理过程中的医疗决策过程,实验证明该方法在 R-RAD 上能达到 83.5% 的准确率,在 R-SLAKE 上能达到 86.3% 的准确率,显著优于现有最先进的基线模型。
Apr, 2024
复杂的机器学习模型在天气和气候预测中取得了高预测准确性,但不透明性限制了用户的信任和模型的进一步改进。因此,提高天气和气候模型的可信度和效用至关重要,我们调查了当前应用于气象预测的可解释机器学习方法,并将其分为后处理可解释性技术和从头开始设计可解释性模型两大范 Paradigm。最后,我们讨论了实现与物理原理相一致的更深层次的机械解释,开发标准化评估基准,将可解释性融入迭代模型开发工作流程以及为大型基础模型提供可解释性所面临的研究挑战。
Mar, 2024
在计算病理学中,通过对抽样补丁进行训练的多实例学习(MIL)方法在计算效率上是高效的,并且作为一种正则化策略。本研究探讨了不同采样大小对性能趋势以及对模型可解释性的影响,并在 CAMELYON16 数据集上使用 30% 的补丁实现了 1.7% 的性能提升,在 TUPAC16 数据集上仅使用 8 个样本实现了 3.7% 的性能提升。此外,我们发现解释性效果与数据集相关,在 CAMELYON16 上受到了影响,而在 TUPAC16 上则没有受到影响,这进一步证实了抽样与性能和解释性之间的关系与任务具体相关。与预先提取的特征相比,使用 1024 个样本进行的端到端训练在两个数据集上都取得了进一步的改进,进一步突显了这种高效方法的潜力。
Mar, 2024
应用不同的生存分析方法比较其性能,结果表明深度学习(DeepSurv)在歧视度和校准性方面表现最佳,而 AutoScore-Survival 则通过最小变量集实现了较好的性能和解释性。
Mar, 2024
通过重新建模图像归因问题,该论文提出了一种基于子模集选择问题的图像归因算法,旨在利用更少的区域来增强模型的可解释性,并通过构建新颖的子模函数来发现更准确的细粒度解释区域,在子区域的选择上引入了信心,有效性,一致性和协作得分四个不同的约束来评估各个子集的重要性。与现有方法相比,在两个人脸数据集(Celeb-A 和 VGG-Face2)和一个细粒度数据集(CUB-200-2011)上的大量实验证明了所提出方法的优越性。
Feb, 2024