一种结合自回归模型和对抗模型的生成框架,通过训练一个本地的过渡策略和一个全局的能量模型来生成时间序列数据,以模拟其连续行为,并在实证分析中验证其性能。
Nov, 2023
这篇论文介绍了一种基于循环神经网络的状态构建方法,提出了能够让实时递归学习可扩展的两个约束条件,并在基准测试和政策评估中证明了其有效性。
Jan, 2023
本文提出了一种从高维时间序列数据中提取少数基本隐藏变量的方法,并学习这些隐藏变量之间的状态转移规则的方法,实验结果表明该方法可以从观测到的状态转移中学习这些物理系统的动态,并预测未观测到的未来状态。
Dec, 2022
本研究研究了动态生成模型的空间 - 时间过程,如视频数据中的动态纹理和动作序列,模型通过一个生成模型产生视频序列中的每个时间帧,生成模型是潜在状态向量的非线性转换,并由自回归模型控制。
Dec, 2018
通过实时与合适的自上而下学习信号合并本地可用信息,为循环神经网络提供了高效的学习算法,其中包括了神经形态芯片的在线训练,从而拓宽了大脑中的网络学习理解并在实验中得到了验证。
Jan, 2019
本研究提出了一种新的前向后向语言模型,能够在特定词的约束下生成自然语言文本,表现优于传统的顺序语言模型。
Dec, 2015
通过训练反向递归神经网络帮助正向模型预测长期未来信息,该方法可以提高生成递归神经网络的生成能力和语音识别和 COCO 字幕生成任务的性能。
Aug, 2017
本文研究证明可学习门控在循环神经网络中提供输入数据的时间转换几乎不变性的功能,从而为长期依赖性和参数初始化提供了新的可能性。
Mar, 2018
本文介绍了一种利用深度神经网络和近似贝叶斯推理相结合的广义深度生成模型,并引入了用于表示近似后验分布的识别模型,并利用随机反向传播来开发算法,实现生成和识别模型参数的联合优化,最终将模型应用于实际数据集,生成更真实的分布、准确地恢复缺失数据,并在高维数据的可视化上发挥了重要作用。
Jan, 2014
我们提出了一个能够逐步扩展解释性时间逻辑规则集来解释时间事件发生的框架。利用时间点过程建模和学习框架,规则内容和权重将逐渐优化,直到观察的事件序列的似然性最佳。我们的算法通过在主问题中更新当前规则集的权重,并在子问题中搜索和包含新规则来增加似然性。主问题被定义为凸问题,使用连续优化方法相对容易求解,而子问题需要在庞大的组合规则谓词和关系空间中进行搜索。为了克服这一挑战,我们提出了一种神经搜索策略,通过学习生成新规则内容的一系列动作。该策略参数将使用强化学习框架进行端到端训练,其中奖励信号可以通过评估子问题目标来高效查询。训练好的策略可以以可控的方式生成新规则。我们在合成和真实的医疗数据集上评估了我们的方法,取得了有前景的结果。
Aug, 2023