- 抗机器之怒:基于检索增强的 LLM 解释
RAGE 是一个交互式工具,用于解释具有检索功能的大型语言模型(LLMs),能够查询外部资源并将相关信息引入其输入上下文。我们的解释是反事实的,即它们识别输入上下文的部分并在去除时改变对 LLM 提出的问题的答案。RAGE 包括修剪方法,用 - 基于和 - 积网络生成可能的反事实情况
由于用户需求和最近的监管(GDPR,AI 法案),AI 系统的决策需要解释。这些决策通常只能进行事后解释,其中因果解释很受欢迎。关于什么构成最佳因果解释的问题必须考虑多个方面,其中 “样本距离” 是最常见的。我们认为,这一要求经常导致不太可 - BiomedJourney: 通过多模态患者行程的指导学习生成反事实的生物医学图像
通过对多模态患者病例的指导学习,BiomedJourney 提供了一种新方法,可用于生成反事实的生物医学图像,以帮助疾病进展建模和稳健图像解释。
- 通过分位数回归推进相对论推断
该论文旨在通过使用神经网络将反事实推理重新构建为扩展的分位数回归问题,依据已学习的定性因果结构和观测数据进行可靠的反事实推理,而不需要给定因果模型甚至直接估计条件分布,并且该方法比现有方法在统计上更有效,同时也有可能将所估计的反事实结果的泛 - KDD实现反事实公平性用于异常检测
本文提出了一种基于因果关系的公平异常检测框架 CFAD,它的目标是确保在事实世界和反事实世界中,同一人属于不同组时检测结果相同。实验结果表明 CFAD 能够有效地检测异常并确保因果公平性。
- 强化学习的经验性解释
通过 Experiential Explanations 生成局部反事实解释来帮助解释强化学习代理的决策,利用影响预测模型来恢复失去的关于策略如何反映环境的情境信息,并在人类评估研究中实现了更高的正确预测率和更高的解释实用性。
- 功能机制下的差分隐私反事实推断
本研究提出了一个新方法来生成具有差分隐私特征的对事实的推断(DPC)。该方法使用自编码器构建带噪声的类原型,然后根据差分隐私的后处理特点,从潜在的原型中导出 DPC,以在保护隐私的同时维护对事实的解释角色。
- ESCM$^2$: 基于全空间反事实多任务模型的后点击转化率估计
本文提出了 ESCM$^2$ 方法来减少前端点击转化率的估计偏差问题和后端点击 - 转化估计时的数据独立性优先问题,并在离线和在线数据集中进行广泛实验,证明其比基线模型表现更好。
- AAAI通过自训练增强反事实分类
本文提出了一种基于自训练和伪标记的方法,将观察数据中的有限未见行动的结果用分类值进行插值,以模拟随机试验的结果,并解决传统监督学习不可用的问题,应用到计价、在线营销、精准医疗等领域。
- 对抗 Shapley 加性解释
本文提出了一种新的 SHAP 方法,Counterfactual SHAP,以增强和澄清可操作性和特征归因之间的联系,通过使用反事实信息构建背景数据集,在许多合成示例中展示了 Shapley 值在可操作性场景中仔细考虑背景数据集的必要性,并 - 图神经网络的鲁棒性因果解释
提出了一种能够生成对于噪音稳健且符合人类直觉的图神经网络的可靠反事实解释的新方法,该方法明确地对相似输入图的常见决策逻辑进行建模,并从许多相似输入图的公共决策边界中产生可靠的解释。
- 计算反事实解释的方法 —— 一项调查研究
机器学习模型日益广泛应用,因此解释其预测和行为变得越来越重要。本文综述了针对多种不同机器学习模型高效计算对抗性解释的模型特定方法,并提出了文献中尚未考虑的模型方法。
- 估计位置偏差,无需干扰干预
本文介绍了一种在不涉及人工参照或限制相关性建模假设的前提下,从历史反馈日志中收集一种特定类型的干预数据并使用极值估计器以获得一致倾向性估计的方法,该方法在 Arxiv 全文搜索和谷歌 Drive 搜索等两个实际系统中提供了更好的倾向性估计。