神经加性模型用于实时预测
由于深度神经网络在高风险领域应用时存在的不透明性,本文提出了一种名为神经添加模型(NAMs)的方法,将神经网络的表现力和广义可加模型的内在可解释性结合起来,令其在高风险领域有更好的应用前景,同时 NAMs 表现出了良好的性能,其可用于多任务学习及建立更复杂可解释的 COVID-19 模型。
Apr, 2020
通过引入层次神经加法模型(HNAM),本研究解决了机器学习预测方法准确性高但解释性差的问题。HNAM 是一种针对时间序列的加法模型,允许根据用户指定的交互层次来进行协变量交互。通过对真实世界的零售数据进行广泛评估并与其他最先进的机器学习和统计模型进行比较,实验结果表明,HNAM 不仅具备竞争性的预测性能,还能提供可信的解释。
Apr, 2024
神经外包模型(NAMs)的发展标志着可解释的深度学习在表格数据集上的重要进展,我们提出了一种新的 NAMs 子类 —— 通过随机傅立叶特征的高斯过程的单层神经网络结构,称为高斯处理神经外加模型(GP-NAM),它具有凸优化函数和可训练参数数量与特征维度成线性关系的优势,并证明了它在多个表格数据集上实现了与更深层次 NAM 方法相当甚至更好的性能。
Feb, 2024
本文从贝叶斯角度探讨神经相加模型,并开发了实用的拉普拉斯近似方法。研究结果表明,使用该方法得到的神经相加模型可以提高表格回归和分类数据集以及现实世界医学任务的性能和解释性。
May, 2023
本文提出了神经属性机(NAM),并研究了其在生成结构复杂的序列方面的效果。NAM 利用逻辑机器表示潜在的语法,并通过优化定制损失函数来教导神经机器语法的约束条件,相比仅从语法样本中训练的传统 RNN,在生成时违规约束条件的情况更少。
May, 2017
本文提出了名为神经关联模型(NAM)的新深度学习方法,旨在用于人工智能中的概率推理。作者研究了两种 NAM 结构,即深度神经网络(DNN)和关系调制神经网络(RMNN),并在多个概率推理任务中证明了它们的有效性,包括识别文本蕴含,多关系知识库中的三元分类和常识推理。实验结果表明,这些模型可以显著优于传统的方法,并证明了它们在解决具有挑战性的 Winograd 模式(WS)问题方面的潜力。
Mar, 2016
提出了一种新颖的关注机制,即神经关注记忆(NAM),它是一种可读写的记忆结构,并基于此设计了基于 NAM 的 MANN、few-shot 学习、N-way K-shot 学习和 Transformer 等模型,实验证明 NAM 在算法零样本泛化、减少假阳性等方面效果更好。
Feb, 2023
一篇研究时间序列的多变量预测的可解释神经网络模型,通过循环神经网络学习数据的时间依赖性,配合基于注意力的特征选择组件来选择最相关和抑制冗余的特征,通过独立训练选定特征的模块化深度网络,展示特征对结果的影响,从而使模型可解释。实验结果表明,该方法在时间序列的回归和分类任务中优于现有的可解释神经加性模型(NAM)及其变体,且达到与时间序列的非可解释方法 LSTM 和 XGBoost 相媲美的预测性能。
Nov, 2023
本研究旨在开发一个综合性的数字时间序列预测模型拓展我们对自然现象模式和趋势的预测能力。该模型采用传统的 ARIMA、Holt-Winters 的方法、支持向量回归和现代神经网络模型 RNN 和 LSTM 等多种模型,可捕捉时间序列数据中的线性和非线性依赖性和季节性,旨在为大规模时间序列预测模型的发展提供实质性推进。
Jun, 2023