通过提取文本来生成短而连贯的理由 —— 根据规则确保足以做出准确预测的 —— 以代替不带理由的预测,该方法结合了生成器(分配文本碎片的候选理由)和编码器(用于预测)。从未给予判据,而是让模型符合对规则的要求。本文还在多方面情感分析和问题检索任务中成功验证了此方法。
Jun, 2016
通过哲学角度和经验证据,本文提出神经理由模型的合理性和可解释性不如人们预期,并呼吁更加严密和全面的评估以确保达到所需的可解释性特性。
Oct, 2021
通过向生成式文本分类器引入离散潜变量,并探究几种图模型配置,我们提高了它的性能,尤其在小数据集下,同时分析了模型的可解释性。
Oct, 2019
本文提出了一种新的 Hierarchical INTerpretable 神经文本分类器 Hint,它可以自动生成按标签关联的话题的模型预测解释,实验结果表明 Hint 方法在文本分类方面不仅与现有的最先进的文本分类器相当,而且生成的解释比其他可解释的神经文本分类器更符合模型预测,并且更易于被人类理解。
Feb, 2022
本文提出了一种新型的可解释深度神经网络的解释,通过使用掩蔽权重,可以将隐藏特征分解成几个输入限制的子网络,并训练成专家混合的增强模型,为复杂的机器学习模型提供说明,提高其效率,并实现了对合理解释进行推荐任务。
Aug, 2020
提出了一种新的深度学习视觉识别模型,可根据可见物体的特征进行分类,并生成解释说明预测标签的原因,该模型使用了一种基于采样和强化学习的新型损失函数,能够生成与现有描述方法不同的描述结果。
Mar, 2016
使用一种新型的神经网络架构,该论文探讨了如何从混合自然语言和结构化规范中生成编程代码,并且证明了较强基准的表现。
本文介绍了一种结构化语言模型,该模型将符号概率模型和神经网络相结合,以提高文本分类性能,并能够在自我监督的方式下学习预测组合树,仅需要原始文本和句级标签作为训练数据,从而具有一定的自我解释性。实验结果表明,本方法在下游任务中能够取得良好的预测准确性,同时预测的跨度标签与人类的推理有一定的一致性。
Mar, 2023
本文提出了一种新颖的可微分全可解释性方法,用于发现规则为基础的二元分类的本地和全局模式,并在开源肽数据集上展示了方法的有效性和实用性。
Feb, 2023
本研究探讨了神经 NLP 模型的可解释性和鲁棒性之间的相互作用,试图通过有理化的过程来提高模型的鲁棒性,并针对五个不同的任务进行了实证评估。实验结果表明,理性模型有可能提高其鲁棒性,但它们在某些情况下会面临一定的挑战,并不总是表现得比无人为监督的模型更好。
Apr, 2022