阐述简化作为讨论中的隐式问题
本文介绍了一种自动语篇处理方法 ——Questions Under Discussion(QUD),采用了一种新的语言框架,通过大数据集训练 QUD 解析器从而可以获得强大的性能,同时通过 QUD 分析可以实现文档简化。
Oct, 2022
本研究首次对文本简化中的内容添加进行了数据驱动研究,称为详细简化。 通过分析 Newsela 语料库中 1.3K 次详尽简化的实例,我们建立了详细简化的生成基线,并表明在生成过程中考虑上下文特定性可以提高性能,这说明详细简化很复杂,以后还有很多有趣的方向。
Oct, 2020
本研究探讨并验证了通过文本简化改善阅读理解相关任务的可行性,创建了被简化过的 SQuAD 数据集 (Simple-SQuAD),并实验表明文本简化对于基于 SQuAD 的问答任务,确实可以提高 2.04% 的精确匹配率和 1.74% 的 F1 值。
Sep, 2021
在本文中,我们介绍了第一个自动评估 QUD 解析的框架,将 QUD 的理论约束转化为具体的协议。我们提出了 QUDeval,一个细粒度评估的 QUD 问题数据集,其中包含来自经过微调的系统和 LLMs 生成的 2,190 个 QUD 问题。使用 QUDeval,我们发现满足 QUD 的所有约束对于现代 LLMs 仍然具有挑战性,并且现有的评估指标很难近似解析器的质量。令人鼓舞的是,由人工撰写的 QUD 问题在我们的人类评估者中得到了很高的评分,这表明在语言建模方面取得进一步的进展可以改善 QUD 解析和评估。
Oct, 2023
QED 是一个基于语言学的可扩展框架,为问答提供解释,提高了调试能力、扩展性和信任度,可以根据规范的语义概念如引用相等性、句子性和蕴含关系说明问题和答案之间的关系,进行问波应答和解释生成的试验表明,训练涉及 QED 数据的模型可以显著提高问答能力,在大量测试中,通过 QED 解释可以显著提高非专业用户改正强神经基线所犯错误的能力。
Sep, 2020
文章探讨了如何使用基于学习理论的自动提问生成器来生成能够提升教材阅读理解的问题,通过教育专家的实验评估,结果表明生成的问题语言质量高,并且询问了与给定文本相关的中心信息,在特定学习场景中可以促进阅读理解。
Oct, 2021
翻译帮助人们理解用另一种语言编写的内容,但即使是正确的直译,缺乏必要的背景也无法实现这一目标。为了弥补这一缺失的语境理解,专业翻译人员通过考虑源语言和目标受众之间的文化差异来进行明确说明。然而,由于缺乏适当的评估方法,NLP 研究对明确说明的探索还有限。本研究引入了一种基于从维基百科收集并由人类翻译人员注释的数据集「WikiExpl」的技术,以自动生成明确说明。所得到的明确说明在多语言问答框架中非常有用,能够更准确地回答问题。
Dec, 2023
该论文研究了使用问答的方式表示语义关系,并从三个任务的角度分析了如何最好地利用 seq2seq 预训练语言模型的威力。最终提出了一个综合文本信息的模型,并发布了具有实用性的 QASem 分析工具。
May, 2022
本文介绍了在开放领域信息寻求对话系统中提出澄清问题的任务,并提出了一个离线评估方法和一个命名为 Qulac 的数据集,以便评估模型的性能,其实验表明优质问题有助于提高信息检索的效率,并提出一个由三个部分构成的检索框架,该模型显著优于竞争基线。
Jul, 2019
在常识问题回答的情境下,我们使用更小的语言模型通过更新 elaboration generator 和 answer predictor 两种语言模型来相互影响,最终取得了比同样规模的其他模型更好的性能,且在四个常识问题回答基准测试中,差距越变越小。
Sep, 2022