BriefGPT.xyz
大模型
Ask
alpha
关键词
attentions
搜索结果 - 4
Action Q-Transformer:使用动作查询的编码器 - 解码器模型进行深度强化学习的视觉解释
本文提出了一种基于 Q-learning 的深度强化学习方法 ——Action Q-Transformer (AQT),它引入了一个 Transformer 编码器 - 解码器结构来实现对代理决策的高度可解释性。我们利用 AQT 在 Ata
→
PDF
a year ago
交织图与注意力网络用于三维人体姿势估计
本文介绍了利用 Interweaved Graph and Attention Network 技术来进行从单视图图像中进行 3D 人体姿势估计的方法,结果表明该方法在 Human3.6M 和 MPI-INF-3DHP 两个流行的基准数据集
→
PDF
a year ago
ACL
利用注意力混合学习切片感知表示
本文利用混合注意力的方法扩展了 slice-based learning (SBL),学习了切片感知的双重关注模型,实验证明这种方法在监测切片上比基准方法和原始 SBL 方法表现更好。
PDF
3 years ago
AAAI
特征归因方法是否正确归因特征?
本研究探讨了利用特征归因方法进行机器学习的解释,提出通过修改数据集来产生真实归因的方法,并对三种常见的归因方法:显著性图、原理和注意力进行评估,发现这些方法在野外数据集中的正确性和可靠性值得怀疑,建议在部署前使用基准来测试新的归因方法。
PDF
3 years ago
Prev
Next