一种上下文感知的交互问答注意力网络
本文提出一种新颖的端到端问题聚焦的多因素注意网络,用于回答提问文本中的问题,通过张量变换实现多因素关注编码,以对散布在多个句子中的信息进行建模,并采用最大化注意聚合机制来对提问文本进行编码,从而实现对问题类型的隐式推断,并在三个大型挑战性问题回答数据集中实现了显著的性能提升。
Jan, 2018
本文提出了一种名为 SDNet 的上下文注意力深度神经网络模型,通过整合上下文理解对话场景并从文本中提取信息,同时引入最新的 BERT 模型,提高了对话问答的精度,表现优于之前的最佳模型并创造了最好的 CoQA 排行榜结果。
Dec, 2018
该研究提出了一种名为 CADNet 的方法,该方法使用上下文化注意力分层蒸馏技术,从而在 SCQA 任务中更好地抵御 ASR 噪声,最终在 Spoken-CoQA 数据集上实现了显著性能提升。
Oct, 2020
本文提出了一种改进的基于注意力机制的架构,其中包括一个对注意力结果和查询进行关系确定的 AoA 模块,并提出了多模态融合模块来组合视觉和文本信息,结果在 VQA-v2 基准数据集上达到了最先进的性能。
Nov, 2020
本篇论文提出了一种新的 Attentional Encoder-Decoder Recurrent Neural Network 模型用于自动生成问题,该模型融合语言特征和句子嵌入来捕捉句子和单词层面上的意义,并采用复制机制和特殊答案信号生成多样化的问题,在基准问题生成数据集上取得了 19.98 的 Bleu_4 结果,超过了以前发表的所有结果,并且人类评估显示这些新增的功能提高了生成的问题的质量。
Sep, 2018
该论文探讨了图像和语言理解的问题,提出了一种基于神经网络的空间记忆网络模型,通过注意力机制进行推理,并在两个视觉问答数据集上取得了改进的结果。
Nov, 2015
本文提出了一种新的方法,利用 Transformer 模型进行抽取式问答。该方法利用预训练的生成式模型,并结合内部 cross-attention 机制实现了良好的表现,同时使用较少的参数,使模型能够进行幻觉式推断,并提高模型重排相关段落的能力。
Oct, 2021
本文提出了一种新的端到端可训练的视频问答(VideoQA)框架,包含三个主要组成部分:新的异构内存、重设计的问题内存和新的多模式融合层,其通过自我更新的注意力实现多步推理并关注相关的视觉和文本线索来推断正确答案,实验结果表明该方法在四个 VideoQA 基准数据集上实现了最先进的性能。
Apr, 2019
该研究探讨了答题所需的最小上下文,并提出了一种简单的句子选择器用于选择最小的句子来喂养问答模型,以实现训练和推理时间的显著减少并提高精度,并且更加鲁棒。
May, 2018