关于自然语言推理的循环和注意力神经模型解释研究
介绍了一种迭代递归注意力模型,通过重用以前计算的查询结果来构建输入数据的递增表示,以便在情感分类数据集上训练,并演示其在易于解释的方式下识别和组合输入的不同方面的能力,同时获得接近最先进性能。
Aug, 2018
本研究中,我们利用带有 attention 机制的 RNN 语言模型来进行深度学习方法的可解释性应用于计算机系统和日志数据的异常检测,实现了卓越的性能和可解释性。
Mar, 2018
本论文旨在通过提供解释训练并确保模型的解释与真实解释的一致性,教会深度学习模型以恰当的原因做出正确的预测。实验结果表明,所提出的方法比传统训练模型更加可靠和有效。
Feb, 2019
本文使用 LSTM 结构,将 match-LSTM 方法引入进行单词级联匹配以预测自然语言推理中的矛盾或中性关系标签,并在 Stanford 自然语言推理数据集上表现出比其他深度神经网络方法更高的 86.1% 的准确率。
Dec, 2015
探究利用自然语言解释来监督模型的注意力权重,促使其更集中于解释中的关键词,从而提高模型性能,此方法的实验表明,这种改进可以适用于其它 NLI 数据集
Apr, 2021
本研究提出了一种可解释的方法,能够可视化神经网络中的内在机制和其对输出的影响,从而提高了深度神经网络的可解释性和决策过程,研究的主要贡献是提出了一种数据集中心的算法,适用于多个领域的深度神经网络结构。
Jun, 2017
该研究提出了一种基于注意力机制的深度神经网络模型解释方法,通过可视化生成的热图分析分类准确性和注意力之间的关系,并证明了使用改进注意力方法可以更好的展示分类器的解释。
Jan, 2019
本文提出一种利用简单变换将外部知识纳入注意机制来使 NLI 模型更加稳健的方法,将其应用于 Transformer 编码器和可分解模型中,结果表明该方法可以显著提高它们的稳健性。并且,在与 BERT 预训练相结合时,在对抗 SNLI 数据集上实现了人类水平的性能。
Aug, 2019
该研究提出了一种基于神经网络的自然语言推理模型,使用表示学习、LSTM、注意力机制和可组成的神经网络来实现任务,并在 Stanford 自然语言推理数据集上实现了比文献中所有已发布模型更好的准确性。
Nov, 2016