关于对话式问答的技术报告
本篇论文提出了一种建立对话式问答系统的新数据集 CoQA,包含来自七个不同领域的 8,000 个对话中 127,000 个具有答案的问题,分析表明,这些问题比现有的阅读理解数据集具有更多挑战性和难点,需要针对性的解决方案,评测结果显示目前最好的系统 F1 得分为 65.4%,仍然有大量的改进空间。
Aug, 2018
提出了一种新的口语会话问答任务(SCQA),旨在使系统能够模拟复杂的对话流程,以便处理音频记录中的对话式问题,并探索从不同模态提供更多线索,通过 DDNet 方法有效地摄取跨模态信息以实现语音和语言模态的细粒度表示,并通过双向关注机制鼓励更好的音频和文本之间的对齐,以简化知识转移过程。通过 Spoken-CoQA 数据集,证明了跨模态信息融合的必要性,同时证明了提出的方法在口语会话问答任务中具有卓越的性能表现。
Apr, 2022
文章研究了问题回答领域(Question Answering)中各种算法模型以及增强数据方法,提出了基于 Attention-over-Attention 等方法的组合以及数据增强和集成策略,可在 SQuAD 等基准数据集上取得超人的表现。但在最新的自然问题基准数据集上,相对简单的 BERT 迁移学习方法取得了超过先前表现最优系统 1.9 F1 点的优异表现,并且添加集成策略进一步提高了 2.3 F1 点。
Sep, 2019
介绍一个新数据集,用于在对话上下文中重新提问问题,提供了对问题改写、网页检索和阅读理解的指标。通过组合先进的问题重写模型和开放域 QA 的竞争模型,该方法显示出了 QReCC 数据集的效力,并证明了该设置的困难性和大量改进的空间。
Oct, 2020
本研究提出了一种新的口头对话问答任务,能够使问答系统对给定的语音话语和文本语料库建模,其中使用了新的统一数据精炼方法 DDNet 直接融合音频文本特征以减少语音识别错误率,同时运用 Spoken-CoQA 数据集评估系统的对话式互动能力,并在实验中取得了优异的性能表现。
Oct, 2020
本论文提出了一种基于多任务学习的框架,通过引入指针设备的语义解析模型和新型类型感知实体检测模型,实现共享监督信号、减轻误差传播影响,并在大规模对话问答数据集上进行实验,将总体 F1 分数从 67%提升到 79%。
Oct, 2019
本文提出了 ConvADR-QA,该方法在 Open-domain conversational question answering 中使用历史答案来提高文本检索和回答效率。通过引入 teacher-student 框架来减少上一轮的噪声,实验结果表明我们的模型在提取式和生成式读者设置方面均优于现有的基线模型,充分证明了历史答案在开放领域会话问答中的有效性。
Nov, 2022
本论文介绍了一种分解对话问答任务的方法,包括问题重写和问题回答。通过引入一种新的对话 QA 架构和一个问题重写模型,证明了这种方法在 TREC CAsT 2019 建议检索数据集上已经达到了最新的技术水平,并在 QuAC 数据集中优于我们的基准模型。这个问题重写模型在两个数据集上的性能接近于人类的表现,而对话 QA 任务的终端性能差距主要是由于回答中的错误导致的。
Apr, 2020
该研究提出了一种名为 CADNet 的方法,该方法使用上下文化注意力分层蒸馏技术,从而在 SCQA 任务中更好地抵御 ASR 噪声,最终在 Spoken-CoQA 数据集上实现了显著性能提升。
Oct, 2020
本文提出一种名为 ORConvQA 的交互式检索问答方法,通过基于 Transformers 的检索器、排序器和阅读器,实现在大规模语料库中检索答案并提取答案以构建功能性的交互式检索系统,并创建了 OR-QuAC 数据集以促进 ORConvQA 的研究。实验证明可学习的检索器对 ORConvQA 至关重要,在所有系统组件中启用历史建模可以显著提高系统性能,排序器组件提供了正则化效果并有助于模型性能的提升。
May, 2020