- 利用自然语言解释缩放人类判断
本文提出了一种利用自然语言解释对大型语言模型进行训练的方法,通过收集一致性注释来标记数据,以及利用该方法对大型语言模型进行训练,从而提高标注数据的质量。
- SPARSEFIT:稀疏微调的少样本提示,用于联合生成预测和自然语言解释
本文提出一种名为 SparseFit 的算法,使用离散提示在几个可用的 NLEs 的情况下,只微调神经模型的 6.8%参数即可同时生成预测结果和高质量 NLEs,可取得与精细调整昂贵的 Pre-trained Language Models - 基准测试忠实度:关于在视觉语言任务中实现准确的自然语言解释
本文探讨了目前逐渐普及应用的神经模型的透明度和可理解性的需求,提出了三种可信度测量方法,并在对不同模型架构的比较中使用 VQA-X 和 e-SNLI-VE 数据集进行了评估。
- ChatGPT 在解释隐含的仇恨言论方面是否比人类标注员更优秀?ChatGPT 的潜力和限制
通过设计激励聊天 GPT 生成简明自然语言解释的提示,本文研究了是否可以使用 ChatGPT 提供内含仇恨言论检测的自然语言解释,并通过与人类编写的自然语言解释的比较来评价其质量。我们讨论了 ChatGPT 在隐含性仇恨言论研究中的潜力和局 - 利用多任务预训练技术,提升基础自然语言解释能力
通过应用大规模多任务生成 Transformer 模型的最新进展,我们提出了一种新的 VL-NLE 方法,其提供人类更容易理解的解释,并优于当前技术水平。同时,我们还探讨了高质量 NLE 生成的伦理影响和其他最近 VL-NLE 研究中存在的 - 自然语言解释上的逻辑推理零样本分类
本文提出了一种基于逻辑推理和自然语言解释的零样本分类方法 ——CLORE 框架,通过将解释解析成逻辑结构并沿着该结构进行推理来产生分类得分,实验结果表明 CLORE 在零样本分类方面具有优异的表现,同时能够提供逻辑解析和推理过程作为理性依据 - 通过显著性地图语言化构建自然语言解释
该论文提出了一种方法将视觉化的神经网络关注热点与自然语言解释相结合,形成可读性更高的可解释性,研究表明这种方法比传统的热图可视化更易于人类理解。
- MM基于分块对齐和词汇限制的自然语言解释视觉蕴涵
本文提出了一种名为 CALeC 的方法,旨在解决语言和图像理解中,以前的方法在语义和各种特征之间的对齐上存在问题,其包括一个基于块意识和词汇约束的生成器和一个基于关系的推理网络,用于提高视觉语言理解的精确度和生成的解释的质量。在三个数据集的 - 用自然语言解释胸部 X 射线病理学
介绍了一项新任务:生成自然语言解释以证明医学图像预测的正确性,并引入了一个大规模的医学影像数据集 MIMIC-NLE,包含超过 38,000 个自然语言解释,旨在训练内在可解释的模型。
- 科学解释与自然语言:用于可解释人工智能的统一认识论 - 语言学视角
通过系统分析自然语言解释、结合归纳和演绎论证、和哲学科学中的科学解释现代观念,探讨可解释 AI(XAI)中的可解释性,并揭示自然语言解释的本质,功能,抽象维度和科学解释的含义。
- 基于过程知识融合的社交媒体自杀风险评估学习
通过引入、形式化和发展一个新的人工智能(AI)范式 —— 流程知识注入学习(PK-iL),大幅提高了深度学习算法的性能和自然语言解释能力,并为人类在现实世界中采用此技术提供了帮助。该方法构建了一个结构化的过程知识框架,明确解释了生成预测结果 - 从口述的思维到自动驾驶评论:预测和解释智能汽车的行动
本文基于实地数据,探究了驾驶教练在不同驾驶操作时的评论风格,成功地使用基于透明树的方法自动生成符合该风格的自然语言解释,为今后在驾驶辅助和自动驾驶功能上实现更强大和有效的可解释性奠定了基础。
- CLEVR-X:自然语言解释的视觉推理数据集
本文介绍了一个基于机器学习的可视化问答生成自然语言解释过程的方法,使用 CLEVR-X 数据集进行自然语言解释的基线结果分析,以及研究了不同问题和不同数量的真实解释对自然语言生成质量的影响。
- EMNLP标注丰富场景下自然语言解释的小样本领域迁移学习
本文研究了利用少量标注语言解释的迁移学习方法在无领域语言理解任务中的应用,并将其成功应用于代词消解和基于 commonsense 的验证等任务中。
- EMNLP探究自然语言解释对少样本自然语言推理模型在分布外泛化能力的影响
本文研究神经模型在少样本学习中的泛化能力,探讨自然语言解释对泛化能力的影响,并借助 HANS 数据集中的模板构建自然语言解释。尽管生成的解释在 BLEU 分数上表现不错,但它们未能改善预测性能,而且经常产生虚假信息和错过指示标签的关键元素。
- AAAI多跳可扩展解释再生的混合自回归推断
研究了在自然语言解释中使用双编码器模型进行科学推理,提出了一个名为 SCAR 的混合框架,该框架结合了基于变压器的双编码器和稀疏模型,能够在大规模事实库上实现复杂的多跳推理,并提高了下游推理任务的性能表现。
- ICML基于知识的自我合理化:通过抽取和自然语言解释
介绍了一种自我合理化的框架 RExC,旨在提供两种互补类型的解释(NLE 和提取合理),并将其与背景知识结合起来,从而达到了任务最新水平的性能,并大幅度领先于现有模型,同时进行干扰分析表明,解释与预测之间存在高度的关联性。
- ICCVe-ViL: 视觉语言任务中自然语言解释的数据集和基准测试
本研究介绍了 e-ViL 和 e-SNLI-VE 为可解释的视觉语言任务建立了一个统一的评估框架。该任务旨在生成自然语言解释,并涉及四个模型和三个数据集。研究人员还提出了一种新模型,该模型结合了 UNITER 和 GPT-2,对所有数据集的 - ACL新闻事实核查和评估的摘录和生成式解释
本文探讨了构建自然语言解释来辅助事实核查和新闻评估应用的目标,在两个误解数据集中,基于 Biased TextRank 的提取方法表现最有潜力。
- ACL自然语言解释评估的自动度量研究
研究透明度如何为机器人和人工智能提供自然语言解释,并评估自然语言生成方法的相关度量来生成这些解释,发现基于嵌入的自动自然语言生成评估方法具有更高的相关性,这对于可解释的人工智能和透明的机器人和自主系统具有重要意义。