- 评估机器生成事实核查解释的透明度
通过使用大型语言模型,我们研究了人工筛选与机器选择证据对解释生成的影响,发现大型语言模型使用机器选择的证据生成的解释质量相似或更高,表明精心策划(通过人工)的证据可能不是必需的。但即使使用最佳模型,生成的解释有时也不忠实于来源,因此在事实核 - 推进可解释的自动驾驶车辆系统:综述与研究路线图
通过全面回顾已有文献,本研究对解释性任务、解释性信息和解释性信息沟通这三个主要话题进行了分类,提出了一个综合的研究路线图,旨在指导解释性自动驾驶车辆的开发和部署,以确保在用户需求、技术进步、合规性和伦理考虑等方面具有更安全和可信赖的自主驾驶 - 机器学习模型的可解释性:从数据适应性到用户感知
该研究旨在生成能满足数据和用户要求的本地解释,以便解释已部署的机器学习模型。通过增强一种广泛使用的基于规则的解释方法、引入一种评估线性解释逼近模型适用性的新方法,并对两种对照解释方法家族进行比较实验,从而为任何模型生成可靠且用户可理解的解释 - 使用证据总结解释真实性预测:一种多任务模型方法
通过使用多任务可解释的神经模型进行自动化的事实检验,本研究讨论了社交媒体上快速传播的虚假信息,并探究了深层神经模型在预测时所关注的要素,以寻求与人类推理相媲美的推理水平。
- 利用大型多模式模型解释生成模型的潜在表示
我们提出了一个框架,使用大型多模态模型全面解释生成模型中的每个潜在因子,并量化评估我们生成解释的不确定性,从而学习不同生成模型对解释的解缠效果,最后讨论最先进的大型多模态模型的解释能力和局限性。
- 错配探索:图像 - 文本错位的视觉与文本反馈
本文提出了一种方法,利用大型语言模型和视觉定位模型自动构建训练集来提供检测到的文本和图像对之间的详细文本和视觉错位的解释,实验证明在我们的训练集上微调视觉语言模型可以在二元对齐分类和解释生成任务上优于强基线模型。
- GNN2R: 弱监督下基于知识图谱的理由提供问答
本文提出了一种基于图神经网络的两步推理模型(GNN2R),可以在只有问题 - 最终答案对的弱监督下高效地提供最终答案和推理子图作为最终答案背后的理由,从而解决了知识图谱中基于多跳问题回答的解释生成问题。该模型在实验中表现出优于现有最先进方法 - RecExplainer: 为推荐模型可解释性而对齐大型语言模型
使用大型语言模型作为替代模型,模仿和理解目标推荐系统模型的行为,利用三种对齐方法,即行为对齐、意图对齐和混合对齐,在语言和潜在空间进行对齐训练,从而实现了高度可信的推荐解释生成。
- EMNLPLLM4Vis:使用 ChatGPT 进行解释性可视化推荐
LLM4Vis 是一个基于 ChatGPT 的提示方法,可执行可视化推荐,并使用极少数量的演示示例返回类人的解释,通过考虑先前生成的解释和基于模板的提示进行迭代性微调生成的解释。在 VizML 数据集上的评估表明,LLM4Vis 在少量示例 - 用不可满足子集优化高效地解释 CSP(扩展算法和示例)
本研究基于 “最小不可满子集” 算法构建了一种寻找满足给定成本度量的最佳不满足子集的算法,并开发了加速解释序列生成的方法,实验证明,该算法在解释质量和计算时间方面比 “最小不可满子集” 方法更优。
- 挑战常识:WHOOPS!一个基于视觉语言的合成与组合图像基准测试
介绍了一种名为 WHOOPS!的新视觉常识数据集和基准,其中包括几种面向该数据集的任务,包括图像字幕,跨模式匹配,视觉问答和解释生成任务。结果表明,目前最先进的 AI 模型仍然落后于人类在 WHOOPS!上的表现,希望这个数据集能够激发开发 - ACL面向视觉问答中生成答案和解释的统一模型
提出了一种基于多任务学习的统一模型(UMAE)来解决现有的视觉问答系统中存在的回答和解释分离的问题,其方法涉及在训练数据集中添加人工提示令牌,并在各种 VQA 相关任务上进行细调,实验证明该模型在准确性、解释性和领域外表现等方面均得到了明显 - 信息瓶颈下的解释再生
研究开发了一种名为信息瓶颈方法的技术,该技术可以生成自然而准确的自由文本解释来解释自然语言生成模型的输出,并且在两个领域任务的自动评估和人类评估中得到了验证。
- AAAI通过正确实例化进行无监督解释生成
本文提出了一个名为 Neon 的两阶段无监督解释生成框架,用于解释不符合常识等错误性语句,通过两个标准的解释基准测试,该框架在自动评估和人工评估中表现出优异的性能,并且在不同的场景下仍然有效。
- 大语言模型的解释提升小推断者的性能
利用大型语言模型的自由文本解释来提高小型模型的推理能力,将有助于实现可解释的 AI,并可以在理解所做的预测的过程中生成高质量的解释。
- UCEpic: 统一考虑方面规划和词汇约束的可解释推荐
本文提出了一种将 aspect planning 和 lexical constraints 相结合的控制性 personalized generation 模型 UCEpic,通过该模型获得关键短语的特定信息从而大大改善了生成的解释的多样 - EGCR: 对话式推荐的解释生成
提出了一个名为 EGCR 的新型端到端框架,以从用户评论中提取信息来增强项目表示,并提供解释信息,提高了推荐准确性和对话质量,并增强了可信度。
- 利用紧凑的负例生成进行主动蕴含编码,构建解释树
本文旨在将 “依托树” 作为主要方法,探讨如何有效地在大量前提事实列表中有效地构建多级推理树,该方法以主动式前提选择步骤为序列,采用预训练的变形金刚模型迭代的微调来平衡语义关系的编码和解释逻辑建立模型,并在实验中得到了 20% 的有效性提升 - 推荐系统中的文本解释和评价
本篇论文探讨了在自然语言处理和推荐任务中推断高质量执行操作和使解释具有可操作性的两个基本挑战,并通过证明解释性不以在两个应用中展示的卓越表现为代价的框架将人工智能应用实践的承诺变为现实。
- EMNLP利用分解探针校准多跳问答系统的信任度
本论文探讨了利用多跳问题分解来探究神经问答模型的解释性,通过人类实验证明这种方法可以提高用户预测系统在某个问题实例上的性能,并且可以用来改进问答系统。