OneStop QAMaker: 从文本中提取问题答案对的一站式方法
本文提出一种基于神经网络的两阶段机制来生成问题 - 答案对,第一阶段采用 Pointer Networks 编码句子中的关键答案,第二阶段采用序列到序列模型生成问题,最终采用全局注意力和答案编码生成最相关的问题。实验结果表明我们的方法在生成问题的质量上显著优于现有方法,是自动阅读理解评估的又一步。
Mar, 2018
本文提出了一种名为 GapQA 的新方法,该方法可在具有部分信息的情况下,识别知识缺口并填补它,提高了多跳文本问答的准确性,并在 OpenBookQA 数据集上进行了测试。
Sep, 2019
本文提出了一个神经网络的方法,该方法应用核心指代知识来产生覆盖单句以外内容的维基百科相关问题 - 答案对,并通过对一百万个这些问题 - 答案对的定性分析表明了该系统的有效性。
May, 2018
本文介绍了一种基于生成 / 判别标记方法的 N 至 N QA 提取任务,可以提高客户服务聊天机器人的知识库,并首次设定了 Utterance 和 Session 级别的评估指标。我们发现 QA 对内部和之间的关系可以用于分析对话结构,提出的模型适应不同的领域和语言,并可以减少真实世界产品对话平台中的劳动力成本。
Dec, 2022
本文介绍了一种基于自动生成问答对的框架,包含一个无监督关键词检测器发现问题的有效性,一个生成器利用多通道解码器提高结构知识的多样性,用于医学领域的问答任务,能有效提升考试问答系统的准确率。
Nov, 2018
本文介绍了一个针对实际考试数据的新的统一框架,通过自动生成关键词,用多智能体通信模型生成和优化问题和关键词,然后应用模型生成的问题和关键词指导答案生成,从而使问题答案对生成任务取得了显著突破。
Sep, 2021
本研究提出了两种方法以改善无监督问答:从维基百科中收集问题 - 答案对以自动构建语料库,利用 QA 模型提取更合适的答案迭代地优化 RefQA 数据。经过对 SQuAD 1.1 和 NewsQA 进行的实验证明我们的方法在无监督情况下优于之前的方法,并与早期的监督模型具有竞争力。我们还在少样本学习方面证明了我们方法的有效性。
May, 2020
该研究提出了一种新的社区问答(CQA)总结任务,旨在从 CQA 对中创建简洁的摘要,并通过一系列数据注释和方法比较建立了一个强大的基线方法 DedupLED,进一步确认了 CQA 总结任务中的两个关键挑战,即句子类型转换和去重移除。
Nov, 2022
本研究提出了一种新的口头对话问答任务,能够使问答系统对给定的语音话语和文本语料库建模,其中使用了新的统一数据精炼方法 DDNet 直接融合音频文本特征以减少语音识别错误率,同时运用 Spoken-CoQA 数据集评估系统的对话式互动能力,并在实验中取得了优异的性能表现。
Oct, 2020
提出了一个名为 AttenWalker 的新的无监督长文档问答方法,能够生成高质量的长文档 QA 对,该方法在 Qasper 和 NarrativeQA 上明显优于之前的方法,并在少样本学习中也表现良好。
May, 2023