多语种答案句子选择数据集
本文通过提出一种基于序列到序列变换器模型的答案生成方法,从 AS2 候选中生成答案,并在三个英文 AS2 数据集上进行测试,结果显示本方法的准确率在现有技术水平上提高了 32 个绝对值的水平。
Jun, 2021
本文介绍了一种在 AS2 模型中有效地结合上下文信息的方法,通过使用无监督相似性技术从源文档中提取相关句子,然后将其馈送到经过微调的高效 transformer 架构中,我们的最佳方法使用多路注意力框架来有效地编码上下文,改进了 AS2 的非上下文状态最佳结果的 6%至 11%,并对系统延迟影响不大。
Jan, 2021
该研究提出了三个预训练目标,旨在模拟上下文 Answer Sentence Selection 的下游微调任务,并应用于 RoBERTa 和 ELECTRA 等模型,达到一定的准确率提升。
May, 2023
本文提出了三种新的句子级别的 transformer 预训练目标,以提高 transformer 模型在答案句子选择和文档检索任务中的表现,并减轻对大量标记数据的需求。实验证明,我们的预训练 transformer 模型在三个公共 AS2 数据集和一个工业 AS2 数据集上的表现优越,胜过 RoBERTa 和 ELECTRA 等基线模型。
May, 2022
本文提出了一种名为 Cross-Lingual Knowledge Distillation (CLKD) 的方法,使用强大的英文 Answer Sentence Selection(AS2)模型作为老师进行跨语言知识蒸馏,可用于训练对于标注数据有限的低资源语言的 AS2 模型。作者还介绍了两个多语言数据集进行了实证研究,通过多次实验验证,CLKD 方法在不用标注数据的情况下,可与使用相同数量标注数据的监督微调方法相媲美,具有潜力为低资源语言提供更强大的 AS2 模型,同时这两个多语言数据集能够在 AS2 领域进行更广泛的研究。
May, 2023
本文提出 Translate Align Retrieve (TAR) 方法,通过将 Stanford Question Answering Dataset(SQuAD)v1.1 自动翻译成西班牙语,创建了大规模的西班牙语 QA training dataset。使用此数据集通过微调 Multilingual-BERT 模型训练了西班牙语 QA 系统,并在 MLQA 和 XQuAD 基准测试上进行了评估,结果表明该方法优于 Multilingual-BERT 基线,达到了新的最高 69.1 F1 分数。
Dec, 2019
本文研究了答案句子选择(AS2)模块中选择正确答案句子的联合模型,构建了一个三路多分类器,以支持、反驳或与其他答案中性的方式决定一个答案。通过将最新的 AS2 模型与多分类器和联合层相结合,实现了效果显著的答案集的开发,并在 WikiQA、TREC-QA 和实际数据集上进行了测试,结果表明它具有新的 AS2 技术水平。
Jul, 2021
本研究探讨如何通过自动翻译和排列组合技术将已有的数据资源应用到多语种的问答系统中,并进行深入分析和提出未来数据集开发的建议,以提高多语种问答系统的覆盖面。
May, 2021
本文提出一种通过从 AS2 模型中传递知识来训练 GenQA 模型的方法,该模型将候选答案进行排序,使用排名最高的答案作为生成目标,并使用前 k 个排名最高的答案作为上下文进行训练。模型还利用 AS2 模型的预测得分进行损失权重和条件输入 / 输出塑形,以协助知识传递,并在三个公共数据集和一个大型工业数据集上的评估中证明了该方法优于 AS2 基线和使用监督数据训练的 GenQA。
Oct, 2022
该研究研究了基于图的方法,用于回答句子选择 (AS2),这是构建基于检索的问答系统的重要组成部分。我们的模型创建一个相关训练图,以执行更准确的 AS2。实验表明,我们的方法一致优于最先进的模型。
Feb, 2022