社区问答对总结
该研究利用新颖的联合学习模型解决 CQA 中答案冗余和长度问题,设计了一个以问题为导向的指针生成网络,同时利用答案给长回答降噪,构建了一个包含长回答和参考摘要的大规模 CQA 语料库 WikiHowQA,实验证明该方法可以有效地解决 CQA 中的冗余问题,并取得了在答案选择和文本摘要任务上的最新成果。
Nov, 2019
本文介绍了第一个庞大的 CQA 自动摘要数据集 CQASUMM,利用其进行了一项新任务 —— 社区问答摘要。现有的多文档自动摘要技术不能很好地应用于社区问答,因为社区问答具有更高的变异性、与事实相悖的意见和更少的重叠,因此引入了 OpinioSumm—— 一种新的多文档自动摘要方法,其在该数据集上的表现优于最佳基准 4.6%的 ROUGE-1 得分。
Nov, 2018
该研究使用机器学习和数据归纳技术,为 Community Question Answering (CQA) fora 提出了一种新的答案总结方法,以产生最能反映回答视角范围的摘要,这种方法使用了由专业语言学家策划的数据集进行训练,并实现了语句选取、分组、摘要和纠正等多个子任务,使用了强化学习技术及数据增强方法提高其性能。
Nov, 2021
我们的研究关注于健康答案的基于方面的总结,以解决信息不全的问题。我们提出了一个多阶段的注释指南和一个独特的数据集,包括基于方面的人工编写的健康答案总结。我们利用该数据集构建了一个自动化的多方面答案总结流程,使用了几种最先进的模型进行特定任务的微调。该流程利用问题相似性检索相关的回答句子,然后将其分类为适当的方面类型。接下来,我们使用几种最新的抽象总结模型生成基于方面的总结。最后,我们进行了全面的人工分析,发现我们的总结在捕捉相关内容和各种解决方案方面排名靠前。
May, 2024
本文介绍了 SemEval-2015 Task 3 的组织和结果,以分类好、坏或潜在相关的答案,并回答 List of all answers 的 Yes / No 问题。我们使用 Mechanical Turk 对英语进行了广泛的数据标记,并已向研究社区发布。最好的系统在官方评分上看得分达到了 57.19 和 63.7(英语子任务 A 和 B),以及阿拉伯语子任务 A 的 78.55。
Nov, 2019
本文提出了一种通过问答对生成自包含、以摘要为中心的问题和长度受限、文章概括性答案的模型,该模型通过一个新的数据集学习 QA 生成模型,利用可微分的奖励函数增强 QA 生成过程以减轻曝光偏差的影响。自动度量和人类评估都表明这些 QA 交成功能够捕捉文章的重点并实现高准确度的答案。
Sep, 2021
本研究提供了一个包含消费者健康问题答案的问答驱动摘要集 MEDIQA Answer Summarization dataset,可用于评估抽取式或抽象式算法生成的单个或多个文档,展示了基线和最新深度学习总结模型的结果,并推动医学问题回答中的机器学习研究。
May, 2020
本文研究针对真实世界的消费者健康问题的抽象总结任务,开发了一个抽象问题总结模型,利用医疗实体的语义识别,借此提高了问题聚焦的涵盖范围和生成信息摘要的能力。同时,我们还将问题类型信息融入到解码器的输入中,实现了问题类型驱动的摘要生成,并在 MeQSum 基准语料库上进行了评估,该框架超过了最先进方法 10.2 ROUGE-L 分,并进行手动评估以评估所生成的摘要的正确性。
Jun, 2021
基于检索的代码问答模型通过预训练模型使用构建的双模和单模数据集来匹配自然语言查询与相关代码片段。本文介绍了 ProCQA,一个从 StackOverflow 社区提取的大规模编程问答数据集,提供自然结构的混合模态问答对。为了验证其有效性,我们提出了一种模态不可知的对比预训练方法,以改善当前代码语言模型的文本和代码表示之间的对齐。与先前主要使用从 CodeSearchNet 中提取的双模和单模对进行预训练的模型相比,我们的模型在广泛的代码检索基准上表现出显著的性能改进。
Mar, 2024
本研究针对常识问题回答(Commonsense question answering)的挑战,提出了利用预训练语言模型中的 “隐含知识”,通过四种翻译方法,探索如何更好地调动语言模型中的常识知识。研究通过在零样本情况下对三个 CQA 数据集进行实验,证明了该方法对增强模型的性能十分有效,并且结合外部知识库进一步提高了模型性能。同时,文章还分析了各种填空翻译方法的不同特点和优缺点。
Jan, 2022