关键词neural network predictions
搜索结果 - 7
- 深度神经网络的可预测外推倾向
神经网络预测在面对越来越多的分布外数据时,往往呈现出不可预测和过度自信的特点。然而,我们的研究发现,与其任意拟合,神经网络预测往往趋向于一个恒定值,并且这个值通常接近于最优恒定解(OCS),即在没有观察到输入时最小化训练数据平均损失的预测。 - 评估特征归因方法的双重视角方法
特征归因方法通过识别相关特征来解释神经网络的预测结果,本研究在 “忠实度” 范式内提出了两个新视角:可靠性和完备性,分别评估特征是否真正预测,以及归因结果是否完整,并基于数学基础提供可计算的定量度量,将这些指标应用于主流归因方法,为分析和比 - 利用背景知識優化神經網絡預測
本文介绍了一种基于逻辑背景知识和可微化的改进函数的学习方法,以提高神经网络在训练和测试中的预测准确性,其中涉及迭代局部细化算法及应用于 MNIST 加法任务的结果。
- ACL可解释性评估指标的可求解性
本文介绍了一个解释神经网络预测的特征归因方法,提出了一个问题:为什么我们不使用解释器(例如 LIME),而是基于解决度量来优化解释,如果度量值代表了解释质量呢?我们实现了解释器,并发布了 Python solvex 包,可用于文本、图像和表 - 在部分群标签存在的情况下实现群体鲁棒性
提出一种利用部分敏感信息训练深度神经网络并改善少数群体预测性能的方法。
- AAAI分布匹配用于合理化
本文提出了一种新的合理化方法,它匹配特征空间和输出空间中的权合理和原始输入文本,并在经验上通过大幅优于以前的方法。
- ACL评估神经语言模型的显著性方法
本文通过对 NLP 模型的神经语言进行全面的定量评估,从两个方面评价了预测解释的质量:可信度和可信度。通过评估,我们发现,如何在给定相同模型和预测时,不同的显着性方法经常在解释上产生分歧。作者建议部署此类方法到神经语言模型的未来工作,应该在