- PUPAE:直观且可操作的时间序列异常解释
近年来,在时间序列异常检测方面取得了显著进展,然而,在检测到异常后,我们能够解释它吗?本文介绍了一种领域无关的反事实解释技术,用于产生时间序列异常的直观且可行动的可视化和基于文本的解释。
- DME-Driver: 自主驾驶中融合人类决策逻辑与 3D 场景感知
DME-Driver 是一种新的自动驾驶系统,通过利用强大的视觉语言模型作为决策者和以规划导向的感知模型作为控制信号生成器,以提高自动驾驶系统的性能和可靠性。
- 基于路径的知识图谱补全解释
GNNs 在知识图谱完成领域取得了巨大成功,但预测结果的解释并没有得到足够的关注。本研究提出了 Power-Link 方法,基于路径的 KG 解释器,在 GNN-based 模型中探索路径解释,并引入新的度量方法进行定量和定性评估,实验证明 - 数学解释
数学语句的解释以及一个解释为何比另一个更好的定义被给出,因为数学事实必须在所有因果模型中都是真的,而且必须被一个代理所知,所以数学事实不能成为解释的一部分(根据标准的解释概念)。这个问题通过使用不可能的可能世界得到解决。
- WSDM逻辑支架:使用 LLMs 进行个性化方面指导的推荐解释生成
利用大型语言模型的独特能力,本文提出一种名为 Logic-Scaffolding 的框架,通过中间推理步骤结合方面解释和思维链提示的思想生成解释,以解决现有模型在零 - shot 解释上的困难。
- 集成解释:可解释机器学习的统一方法
通过集成多角度解释的各种解释方法,本研究提出了一种新的适用于可解释性学习的方法,即集成解释方法。实验结果显示,集成解释方法更稳定,并且更符合人类经验和认知。作为应用,我们将集成解释方法用于特征选择,从而显著改善了相应学习模型的泛化性能。
- 理解路径规划解释
通过图像和文本解释,我们提出了关于机器人导航决策的理解性和简洁性的用户研究。
- 注重解释的软集成增强大型语言模型的上下文学习
Large language models have the ability to quickly adapt to target tasks without gradient updates by using an Explanation - 文本评论中的解释性异常检测:主观情景能否正确评估?
本文提出了一个用于在在线平台上检测和解释异常评论的流程。该流程由三个模块组成,可检测出无价值或恶意组合的评论,并提供分类的正常度评分和解释。通过对大型亚马逊数据库创建的不同数据集进行评估,证明了该流程解决异常检测任务的能力。此外,通过对 2 - ICCV迭代集成归因的视觉解释
通过迭代整合属性(IIA)方法来解释视觉模型的预测,IIA 方法通过迭代整合输入图像、模型生成的内部表示以及它们的梯度,得到精确而聚焦的解释图。我们通过对各种任务、数据集和网络架构的综合评估验证了 IIA 的有效性,研究结果表明 IIA 产 - 组特征的准确归因:部分总和模型
通过解释机器学习模型的决策过程来提供准确反映的解释被认为是 “忠实的”。本研究开发了一种名为 SOP 的模型类,其预测结果附带了忠实的分组特征归因。该模型将预测分解为可解释的得分总和,其中每个得分直接归因于一组稀疏特征。我们通过标准解释性度 - EMNLP探索 LLMs 用于仇恨言论检测:优势和脆弱性
利用不同的提示变体、输入信息和在零样本设置中评估大型语言模型,研究探讨在检测讨厌或有害语言时使用解释、上下文和受害群体信息,并发现不仅将目标信息包含在流程中可以显著提高模型性能 (约 20-30%),而且将理由 / 解释加入流程会在不同数据 - 利用 ChatGPT 在虚假消息中发挥力量:一次对生成、检测和解释的深入探索
ChatGPT 的生成、解释和检测虚假新闻的能力进行了全面的探索,证明了其在生成高质量虚假新闻样本、解释虚假新闻特点和检测虚假新闻方面表现良好,但仍有改进的空间,并进一步研究了提升其检测能力的潜在额外信息。
- TIGERScore:建立可解释的度量标准 用于所有文本生成任务
通过自然语言指示引导的训练度量 TIGERScore 对广泛的文本生成任务进行解释性和无参考评估,该度量基于经过精心策划的指示调优数据集 MetricInstruct 进行 LLaMA 训练,覆盖 6 个文本生成任务和 23 个文本生成数据 - 基于 ONNX 的通用框架:使用 Shapley 值解释神经网络的 ONNXExplainer
ONNXExplainer 是一个用 Shapley 值在 ONNX 生态系统中解释神经网络的通用框架,其自动微分和优化方法实现了一次部署、高效计算解释和更少内存消耗。通过与 SHAP 进行比较,广泛的基准测试表明,所提出的优化方法能够提高 - 可解释的图谱谱聚类文本文档
通过提出基于组合 Laplacian 的图谱聚类结果的解释方法,实现了将聚类结果与文本内容之间的桥梁构建, 找到了与文档内容相关的谱聚类的解释方法。
- 利用核心 SHAP XAI 方法优化网络异常检测模型
利用可解释的人工智能(XAI)中的 kernelSHAP 方法检测和解释网络异常,以提高网络异常检测模型的准确率、召回率、精确率和 F 分数。
- 一种强化学习方法用于视觉问答验证:以糖尿病黄斑水肿分级为应用
通过自动自适应提问方法来更好理解针对医学图像分析的机器学习模型的性能,以提供更丰富和适当的验证方法,目的是揭示针对图片相关任意问题回答的高效视觉问答算法的推理行为。
- G-CAME:面向目标检测器的高斯类激活映射解释器
本文提出了一种使用高斯激活映射解释器(G-CAME)生成显着性图作为解释目标检测模型的方法,与其他基于区域的方法相比,G-CAME 具有更短的解释时间,并在 MS-COCO2017 数据集上得到了定性和定量的评估。
- DEGREE: 基于分解的图神经网络解释方法
本文提出 DEGREE 方法,通过分解 GNN 信息生成和聚合机制,实现对输入图中特定组件对最终预测的贡献的跟踪,并设计了子图级别解释算法来揭示先前方法忽略的图节点之间的复杂交互,实现了节点分类任务上的有效性。