- 阅读就是信仰:重新审视语言瓶颈模型对图像分类的作用
通过将现代图像描述器与预训练的语言模型相结合,语言瓶颈模型在灾害图像分类任务中能够超过黑盒模型的分类准确率,并且通过融合两者可以产生协同效应,进一步提高分类准确率。
- 基于贝叶斯说服的高效无模型对齐
通过使用较小的模型,引入一种模型不可知且轻量级的贝叶斯说服对齐框架,为对齐黑盒大模型提供高效方法。在使用该框架进行训练后,希望我们的工作能够提供从贝叶斯说服的视角重新审视对齐框架的初步步骤,并取得优于先前模型的性能提升。
- 机器学习中解释性不可信的原因:对部分依赖图的敌对攻击
该论文提出了一种对机器学习任务中基于排列的解释方法的脆弱性进行揭示的对抗性框架,特别关注了偏依赖图。通过修改原始黑盒模型以操作外推领域的实例预测,该框架能产生欺骗性的偏依赖图,可掩盖歧视行为并保留原模型大部分预测,从而使黑盒模型在 PD 图 - SIDEs: 在 xAI 中将理想化与欺骗性解释分开
解释性人工智能(xAI)方法对于建立信任使用黑匣子模型至关重要,本文概述了 xAI 研究参与理想化评估的需求,并介绍了一个评估 xAI 方法是否成功理想化或具有欺骗性解释的新框架。我们的定性分析发现,领先的特征重要性方法和反事实解释容易出现 - CVPR一致性与不确定性:从黑盒视觉语言模型中鉴别不可靠的响应,以进行选择性视觉问答
在黑盒子中研究选择性预测,使用邻域一致性原则识别可靠性低的图像 - 语言模型在问答任务中的响应。
- 基于梯度的黑盒显著图生成的前向学习
我们引入了一种新的统一框架,用于在黑盒模型中估计梯度并生成显著性地图以解释模型决策。我们采用似然比方法来估计输出到输入的梯度,并利用它们来生成显著性地图。此外,我们提出了块计算技术来提高估计精度。在黑盒模型中进行的大量实验证实了我们方法的有 - 大型语言模型的置信度估计:基于多个答案反思之前三思
针对大型语言模型(LLM),特别是黑盒模型的应用,评估输出可信度的置信度估计是关键。现有的 LLM 置信度估计通常因 LLM 对生成的错误答案过于自信而缺乏校准。现有方法解决过度自信问题的能力受到一个重要限制,即它们仅考虑 LLM 生成的一 - 限制性贝叶斯神经网络
这项研究探索了贝叶斯神经网络的概念,并提出了一种新颖的架构来显著减少网络的存储空间复杂性。此外,我们介绍了一种能够高效处理不确定性的算法,确保强健的收敛值而不会陷入局部极小值的问题,特别是在目标函数缺乏完美凸性的情况下。
- ICCV基于 CoRTe 的跨领域迁移学习:从黑盒到轻量级分割模型的一致可靠迁移
CoRTe 方法使用黑盒模型的相对置信度提取知识,通过伪标签精炼增强学生模型在目标数据上学到的新信息,并使用提取的伪标签进行模型一致性训练,将黑盒模型的知识转移到轻量级模型上,以用于目标数据分布的两个合成 - 实际场景。
- 通过黑盒模型实现鲁棒的车辆跟随动力学建模:方法、分析与建议
该研究评估了黑盒模型(如 LSTM)的目标变量选择,并比较了它们与经典车辆跟随模型的最佳目标变量的异同,结果发现目标变量的最佳选择与黑盒模型的目标函数和向量空间相关。
- 使用答案集编程进行反事实生成
使用基于规则的机器学习算法,自动生成反事实解释以实现透明化和可解释性。
- 连线:针对黑盒图像 - 语言模型的协作微调
该论文提出了一种名为 CraFT 的协作微调方法,用于将黑盒预训练视觉语言模型应用于下游任务,通过仅获得输入提示和输出预测来优化模型,并在少样本分类上展示出显著的结果。
- DAM:3D 全局解释的扩散激活最大化
提出了一种基于 DDPM 的点云全局可解释性方法 (DAM),该方法利用了 Point Diffusion Transformer (PDT) 作为一个新颖的点对称模型,通过双分类器指导来生成高质量的全局解释。通过对 DAM 使用的自适应路 - AAAI通过多样性促进反事实鲁棒性
通过报告多个反事实,可以提供一些有意义的鲁棒性保证,这篇论文提出了一种近似算法来选择最相关的解释,并在实验中证明了其在生成鲁棒性解释方面的改进。
- 通过基于分数的渐进编辑器对黑盒语言模型进行可控文本生成
通过引入 ScoPE(基于评分的渐进编辑器)生成,我们提出了一种用于黑盒语言模型的受控文本生成的新方法,通过将其与语言模型集成,逐步编辑中间生成的离散令牌以与目标属性对齐,从而增强目标领域的文本得分。实验证明 ScoPE 在控制文本生成方面 - 探索快速 Shapley 值估计的统一视角
Shapley 值是一种广泛接受和可信赖的工具,用于解决深度神经网络等黑盒模型所带来的挑战。本研究分析了现有工作的一致性,并推断出随机估计器可以统一为特征子集重要性采样的线性变换。基于此,我们探讨设计简单的摊销估计器的可能性,并提出了一种简 - SurroCBM: 生成后处理解释的概念瓶颈替代模型
本文介绍了 Concept Bottleneck Surrogate Models (SurroCBM) 的新颖框架,旨在通过自动发现的概念来解释黑盒模型。通过自动生成的数据提供了有效的训练策略,不断提高解释质量,并通过广泛实验证明了 Su - 通过反事实解释黑盒模型
使用 Julia 编写的 CounterfactualExplanations.jl 软件包可生成黑盒模型的因果解释和算法性补救措施,为改善不良结果提供可行的和实用的改变方案,并帮助解释任意预测模型。
- 学习使用可训练差分算子模拟部分已知的时空动力学
使用混合架构的 PDE-Net++ 模型结合了神经网络、差分算子和黑盒模型,提供了更准确和可解释性更强的数据驱动方法来模拟时空动态。
- ICML反对说明:利用异议减少模型过度依赖
在认知不透彻的解释方法中,引入了不同预测结果以及解释的不一致性,提高了人类对模型预测的洞察力并降低了预测结果的过多依赖。通过模型的多样性,可以提供相互矛盾的解释,通过全局和局部的方法实现。