AnswerSumm:一份手动策展的数据集与回答摘要生成管道
本文介绍了第一个庞大的 CQA 自动摘要数据集 CQASUMM,利用其进行了一项新任务 —— 社区问答摘要。现有的多文档自动摘要技术不能很好地应用于社区问答,因为社区问答具有更高的变异性、与事实相悖的意见和更少的重叠,因此引入了 OpinioSumm—— 一种新的多文档自动摘要方法,其在该数据集上的表现优于最佳基准 4.6%的 ROUGE-1 得分。
Nov, 2018
该研究提出了一种新的社区问答(CQA)总结任务,旨在从 CQA 对中创建简洁的摘要,并通过一系列数据注释和方法比较建立了一个强大的基线方法 DedupLED,进一步确认了 CQA 总结任务中的两个关键挑战,即句子类型转换和去重移除。
Nov, 2022
我们的研究关注于健康答案的基于方面的总结,以解决信息不全的问题。我们提出了一个多阶段的注释指南和一个独特的数据集,包括基于方面的人工编写的健康答案总结。我们利用该数据集构建了一个自动化的多方面答案总结流程,使用了几种最先进的模型进行特定任务的微调。该流程利用问题相似性检索相关的回答句子,然后将其分类为适当的方面类型。接下来,我们使用几种最新的抽象总结模型生成基于方面的总结。最后,我们进行了全面的人工分析,发现我们的总结在捕捉相关内容和各种解决方案方面排名靠前。
May, 2024
本研究提供了一个包含消费者健康问题答案的问答驱动摘要集 MEDIQA Answer Summarization dataset,可用于评估抽取式或抽象式算法生成的单个或多个文档,展示了基线和最新深度学习总结模型的结果,并推动医学问题回答中的机器学习研究。
May, 2020
该研究利用新颖的联合学习模型解决 CQA 中答案冗余和长度问题,设计了一个以问题为导向的指针生成网络,同时利用答案给长回答降噪,构建了一个包含长回答和参考摘要的大规模 CQA 语料库 WikiHowQA,实验证明该方法可以有效地解决 CQA 中的冗余问题,并取得了在答案选择和文本摘要任务上的最新成果。
Nov, 2019
本研究提出了一种透视特定的回答总结的新任务,通过识别医疗领域不同的观点并进行总结,以应对医疗社区问答平台中回答多样性和离题讨论带来的信息提取困难。研究使用 PUMA 数据集对 3167 个问答主题进行 6193 个透视感知的总结标注,提出了 PLASMA,一种基于提示的可控总结模型,并通过与其他基线模型的评估结果证明了 PLASMA 的卓越性能。
Jun, 2024
为了解决消费者在网络上描述医疗需求时使用过度描述性和周边信息,从而导致自然语言理解困难的挑战,我们介绍了一个新的数据集 CHQ-Summ,其包含 1507 个专业领域的消费者健康问题及相应摘要。同时,我们在多个最先进的摘要模型上对该数据集进行了基准测试,展示了其有效性。
Jun, 2022
通过请高质量合同工人阅读原始文档并写出原始摘要,建立了 SQuALITY 数据集,该数据集的第一篇文章概述了主要内容,其余四篇回答了具体问题,实验证明现有自动摘要评估指标不是优秀的质量指标。
May, 2022
本文介绍了 SemEval-2015 Task 3 的组织和结果,以分类好、坏或潜在相关的答案,并回答 List of all answers 的 Yes / No 问题。我们使用 Mechanical Turk 对英语进行了广泛的数据标记,并已向研究社区发布。最好的系统在官方评分上看得分达到了 57.19 和 63.7(英语子任务 A 和 B),以及阿拉伯语子任务 A 的 78.55。
Nov, 2019
本文提出了一种利用问答奖励来引导监督式摘要系统的新框架,通过人类摘要获得问答对来评估总结与原文件的关系,并且该系统学习如何推广信息量大、流畅度高且在问答方面表现良好的总结,结果表明其表现优于基线总结和人类评估。
Apr, 2019