本文通过提出基于平均化变分推断损失函数的变分注意力网络方法,可以更有效地学习到潜变量对齐模型,取得了与硬注意力等传统方法相当和甚至更好的性能,在机器翻译和视觉问答任务上表现优异。
Jul, 2018
本研究提出了一种基于视觉前景的增强学习 (domain generalization) 方法,可以将环境中的干扰 (视觉噪声) 最小化,从而使得强化学习效果更佳。该方法基于无监督学习,使用关键点检测和视觉注意力机制进行前景提取并获得干净且不变的视觉输入。实验证明,该方法在 DeepMind 的控制任务中表现优于最新的基于视觉域的通用 (reinforcement learning) 方法。
Apr, 2021
该论文介绍了一种使用固定数据集的视觉演示来学习如何完成任务的方法,并提出了一种基于变分模型的对抗性模仿学习算法来处理高维空间、固定奖励等挑战,实验结果表明 V-MAIL 算法能够高效稳定地学习成功的视觉动作策略。
Jul, 2021
本文阐述了一种利用 Bayesian Optimal Experiment Design 来选择信息区域的视觉 Hard Attention Model。通过合成未观察到的区域的特征来预测信息增益(EIG),并在 EIG 最大的位置上实际观察内容。这种模型使用递归特征聚合器维护递归状态,使用线性分类器来预测类别标签,并使用部分变分自编码器来预测未观察到区域的特征。我们使用可微分的目标函数对模型进行训练,并在五个数据集上进行测试。与基线模型相比,当两者只看到几个方向时,我们的模型获得了 2-10%更高的准确度。
Nov, 2021
该论文介绍了一种基于注意力机制的模型,通过机器翻译和物体检测实现图像内容的自动描述,通过最大化变分下界确定性训练该模型,并展示了该模型在生成输出序列时能够自动学习聚焦于显著物体。三个基准数据集上的性能表现也证明了该模型的有效性。
Feb, 2015
本文介绍了一种新型的硬注意力机制,该机制忽略了某些特征但仍能达到与软注意力相同或更好的性能,而且因为其选择了输入信息的重要特征,因此比类似的软注意力机制更加高效。
Aug, 2018
关注模型有三种不同的潜在变量边际可能性(LVML):软关注、硬关注和软关注损失。我们观察到使用这些范例学到的模型具有独特的特征,并且提出了一种简单的混合方法,结合了不同损失函数的优点。
Jul, 2023
本文提出了一种变分注意力机制来避免变分编码器 - 解码器中的未被注意模型绕过,并在增加生成语句的多样性的同时不降低其质量。
Dec, 2017
研究提出一种可用于在线设置中,使得注意力机制在线性时间内计算的可微分方法,- 该方法通过学习单调对齐来解决软注意机制在线性时间复杂度下难以实现的问题,并在句子摘要、机器翻译和在线语音识别领域实现了有竞争力的结果。
Apr, 2017
通过引导模型关注输入的显著区域,或经过无监督预训练,可以提高循环神经网络在分类任务中的性能,同时可以提高注意力机制本身的效率。