文章研究了影响函数在神经机器翻译(NMT)中的应用,提出了两个有效扩展,并证明在处理复制训练示例等子问题时,影响功能可以更广泛地应用于 NMT。
Oct, 2022
本文提出了一种新的训练特征归因方法,通过结合显著性图和实例归因方法,可以有效地发现训练数据中的人工瑕疵,并在实验中取得了良好的结果。
Jul, 2021
通过理论分析和实验测试,我们发现影响函数在现代深度神经网络中存在参数发散的局限性,但仍可用于模型调试和纠正误预测。
May, 2023
本文研究了影响函数在深度网络中不稳定的问题,并提出了一种基于类别信息的解决方案,经过大量实验表明我们的修改不仅显著提高了影响函数的性能和稳定性,而且不会带来额外的计算成本。
本研究关注于利用影响函数来确定相关的训练样本,以期 “解释” 机器学习模型的预测,提出了一种基于全局和局部影响的相关性选择准则 RelatIF,并通过实证评估表明,与使用影响函数得到的结果相比,RelatIF 所返回的样本更加直观。
Mar, 2020
通过使用广义的影响函数进行参数分析,并采用鲁棒的逆 - Hessian - 向量积逼近方法解决计算不稳定性,我们提出了一种可在各种人工智能领域中用于模型分析的多功能工具。
Dec, 2023
使用影响函数改进深度神经模型的性能并自动识别需要手动校正的数据点来提高模型性能,达到减少手动标注数据点数量的效果。
Feb, 2024
我们的研究引入了一种新的评估框架,用于量化和比较 IA 和 NA 揭示的知识,并通过广泛的实验和分析表明,与 IA 相比,NA 通常揭示了更多关于 LM 的参数化知识的多样性和全面性信息,然而,IA 提供了有关 LM 的参数化知识的独特而有价值的见解,这不是由 NA 揭示的。我们的研究结果进一步表明,结合 IA 和 NA 的多样化发现可能对 LM 的参数化知识有更全面的理解。
Apr, 2024
本文提出利用深度学习 NLP 模型的解释性和去除数据中虚假相关性的方法,即影响调整,该方法通过调整模型参数并学习任务标签预测,来降低数据中的混杂特征,可以显著地胜过对抗训练等基础方法。
Oct, 2021
本研究旨在对四种基于梯度的属性方法进行分析,并在图像和文本分类领域的多个数据集上测试这些方法,提出了一种新的评估指标 Sensitivity-n,并在改进一些方法后建立了一个统一框架,使这些方法能够进行直接比较和更容易实现。
Nov, 2017