VOGUE: 多任务学习中的答案表述
本文使用多任务学习方法和多视角注意力机制,同时处理答案选择和知识库问答问题,并通过在不同视角学习多视角注意力来提高两个任务的性能。
Dec, 2018
本文探讨了答案感知的问题生成任务,提出了在基于注意力机制的指针生成模型中,通过将语言建模转化为辅助任务,将问题生成纳入分层多任务学习结构。我们的联合学习模型使编码器能够学习到更好的输入序列表示,从而指导解码器生成更连贯、流畅的问题。在SQuAD和MARCO数据集上,我们的多任务学习模型提高了性能,取得了最先进的结果。此外,人类评估进一步证明了我们生成的问题的高质量。
Aug, 2019
本论文提出了一种基于多任务学习的框架,通过引入指针设备的语义解析模型和新型类型感知实体检测模型,实现共享监督信号、减轻误差传播影响,并在大规模对话问答数据集上进行实验,将总体F1分数从67%提升到79%。
Oct, 2019
本文提出一种基于Transformer和Graph Attention Networks的语义解析多任务模型LASAGNE,并针对复杂对话式问答任务进行了实验,取得了较高的准确率。
Apr, 2021
该研究提供了VANiLLa数据集,旨在为问题回答的自然语言生成方法提供合适的方法和结构,从而弥补了当前KGQA数据集在提供问题背景的自然语言语句方面的不足。
May, 2021
提出了一种新的口语会话问答任务(SCQA),旨在使系统能够模拟复杂的对话流程,以便处理音频记录中的对话式问题,并探索从不同模态提供更多线索,通过DDNet方法有效地摄取跨模态信息以实现语音和语言模态的细粒度表示,并通过双向关注机制鼓励更好的音频和文本之间的对齐,以简化知识转移过程。通过Spoken-CoQA数据集,证明了跨模态信息融合的必要性,同时证明了提出的方法在口语会话问答任务中具有卓越的性能表现。
Apr, 2022
本文介绍了一个新的数据集,用于在知识图谱上进行口头回答的对话式问答。该论文通过扩展现有的多轮对话式问答数据集,包括多个释义的口头回答,提供了新的贡献,并使用五个序列到序列模型进行了实验,同时保持语法的正确性。我们还进行了误差分析,详细说明了模型在指定类别中的误差率。我们提议将答案口头化的数据集公开,并详细说明其使用,以便广泛使用。
Aug, 2022
提出了一种通过直接在LLM的输入中添加知识以增强其内部存储的知识的方法,称为KAPING,通过在知识图上检索相关事实来改善零-shot闭书问答任务性能,经验证跨多个大小不同的LLM,基于事实的知识增强方法相对于相关零-shot基线的平均表现提高达48%。
Jun, 2023
尽管大型语言模型在知识密集型任务上表现出竞争力,但它们仍存在于记忆所有世界知识,尤其是长尾知识方面的局限性。本文研究了用于解决知识图谱问答任务的知识图增强语言模型方法。基于回答敏感的KG-to-Text方法,我们提出了一种将KG知识转化为对KGQA最有信息量的文本化陈述的方法,并基于此方法提出了一种KG-to-Text增强的LLMs框架来解决KGQA任务。在几个KGQA基准测试上的实验证明了所提出的KG-to-Text增强LLMs方法在回答准确性和知识陈述的有用性方面优于先前的KG增强LLMs方法。
Sep, 2023