社区问答中答案选择和答案摘要生成的联合学习
该研究提出了一种新的社区问答(CQA)总结任务,旨在从 CQA 对中创建简洁的摘要,并通过一系列数据注释和方法比较建立了一个强大的基线方法 DedupLED,进一步确认了 CQA 总结任务中的两个关键挑战,即句子类型转换和去重移除。
Nov, 2022
该论文提出一种基于循环体系结构的创新方法来解决社区问答中的答案选择问题。该方法首先使用卷积神经网络来学习问题 - 答案对的联合表示,然后将联合表示作为 LSTM 的输入来学习问题的答案序列,以标记每个答案的匹配质量。实验结果表明了我们方法的有效性。
Jun, 2015
本文提出了使用预训练模型的 Question-Answer 交叉注意网络(QAN)进行回答选择,并利用大型语言模型(LLM)来进行具有知识增强的回答选择。实验证明,QAN 模型在 SemEval2015 和 SemEval2017 数据集上实现了最新的性能。同时,LLM 利用外部知识进行问题和正确答案的知识增强,并通过不同方面对 LLM 的提示进行优化,结果表明外部知识的引入可以提高 LLM 在 SemEval2015 和 SemEval2017 数据集上的正确答案选择率,同时通过优化提示,LLM 也能在更多问题上选择正确的答案。
Nov, 2023
该研究使用机器学习和数据归纳技术,为 Community Question Answering (CQA) fora 提出了一种新的答案总结方法,以产生最能反映回答视角范围的摘要,这种方法使用了由专业语言学家策划的数据集进行训练,并实现了语句选取、分组、摘要和纠正等多个子任务,使用了强化学习技术及数据增强方法提高其性能。
Nov, 2021
本文介绍了第一个庞大的 CQA 自动摘要数据集 CQASUMM,利用其进行了一项新任务 —— 社区问答摘要。现有的多文档自动摘要技术不能很好地应用于社区问答,因为社区问答具有更高的变异性、与事实相悖的意见和更少的重叠,因此引入了 OpinioSumm—— 一种新的多文档自动摘要方法,其在该数据集上的表现优于最佳基准 4.6%的 ROUGE-1 得分。
Nov, 2018
本研究提出了一种针对社区问答的二分类(相关 / 不相关)策略,采用敌对训练框架缓解标签失衡问题,并使用生成模型迭代地抽样一组具有挑战性的负样本,最终提高模型预测性能。此外,我们使用多尺度匹配方法显式地检查不同粒度级别的单词和 ngram 之间的相关性。在 SemEval 2016 和 SemEval 2017 数据集上进行评估,结果表明该方法达到或接近最佳性能。
Apr, 2018
本文提出一种生成式机器理解模型,用于同时学习根据文档提问和回答问题,采用序列到序列框架编码文档并生成问题,模型在 SQuAD 语料库上获得显著性能提升,实验证明,模型在同时学习两个任务方面受益。我们认为这种联合模型的新颖性提供了一个超越架构工程的机器理解视角,是实现自主信息寻找的第一步。
Jun, 2017
我们的研究关注于健康答案的基于方面的总结,以解决信息不全的问题。我们提出了一个多阶段的注释指南和一个独特的数据集,包括基于方面的人工编写的健康答案总结。我们利用该数据集构建了一个自动化的多方面答案总结流程,使用了几种最先进的模型进行特定任务的微调。该流程利用问题相似性检索相关的回答句子,然后将其分类为适当的方面类型。接下来,我们使用几种最新的抽象总结模型生成基于方面的总结。最后,我们进行了全面的人工分析,发现我们的总结在捕捉相关内容和各种解决方案方面排名靠前。
May, 2024
本文介绍了 SemEval-2015 Task 3 的组织和结果,以分类好、坏或潜在相关的答案,并回答 List of all answers 的 Yes / No 问题。我们使用 Mechanical Turk 对英语进行了广泛的数据标记,并已向研究社区发布。最好的系统在官方评分上看得分达到了 57.19 和 63.7(英语子任务 A 和 B),以及阿拉伯语子任务 A 的 78.55。
Nov, 2019
本文提出了一种通过问答对生成自包含、以摘要为中心的问题和长度受限、文章概括性答案的模型,该模型通过一个新的数据集学习 QA 生成模型,利用可微分的奖励函数增强 QA 生成过程以减轻曝光偏差的影响。自动度量和人类评估都表明这些 QA 交成功能够捕捉文章的重点并实现高准确度的答案。
Sep, 2021