- QLSC:基于查询潜在语义校准器的鲁棒抽取式问答
我们提出了一种称为 “Query Latent Semantic Calibrator (QLSC)” 的新方法,作为现有 MRC 模型的辅助模块,通过一种独特的缩放策略捕捉查询的潜在语义中心特征,并使用注意机制将这些特征与传统的查询和段落 - GeMQuAD:使用少量示例学习从大型语言模型中生成多语言问答数据集
通过使用 In-Context Learning (ICL) 与 GeMQuAD 半监督学习方法,本研究旨在利用 Large Language Models (LLMs) 生成的数据优化模型表现,特别适用于低资源多语言环境下的提取性问答任务 - XAIQA:用于提取式问答的基于解释器的数据增强
使用医疗记录自然可用的数据,XAIQA 通过分类模型解释器生成大规模的合成问答对,提升了 GPT-4 作为抽取式问答模型的性能。
- 质量优于数量:基于基础模型生成的封闭领域抽取式问答的合成数据集
通过针对特定主题和写作风格生成相关数据进行预先训练,我们提出了一种以萃取式问答为目标的领域适应框架,利用 Galactica 生成与特定写作风格和主题相符的合成语料库,并在 COVID-QA 和 RadQA 两个生物医学萃取式问答数据集上取 - CATfOOD:提升跨领域性能和校准性的反事实增强训练
使用大型语言模型对小型语言模型进行训练数据增强,在抽取式问答系统中改善模型的领域外性能,并提高模型校准的多样性和精简性。
- AGent:一种自动创建无法回答的问题的新型流程
通过自动重匹配缺少正确答案所需信息的上下文与问题,我们提出了一种名为 AGent 的新型流水线,从而自动创建新的不可回答问题。本文中,我们通过从 SQuAD 和 HotpotQA 的可回答问题创建了两组不可回答问题,并展示了 AGent 流 - GPT 促进的材料语言处理加速
材料语言处理 (MLP) 是材料科学研究的关键推动者之一,通过从大量的材料科学文献中提取结构化信息,使得研究变得可能。我们开发了基于生成预训练变换器 (GPT) 的流水线工具,其中基于先前 MLP 模型的复杂架构被战略性的提示工程设计所取代 - ACL基于对决式波段自适应多源试验的抽取式问答
本文研究了基于用户反馈的多源测试时模型适应问题,采用随机决策过程来确定最佳适应模型。讨论了多臂匪类学习和多臂对决匪类学习两个框架,并用一种名为 Co-UCB 的新方法解决了多臂对决匪类学习任务。实验结果表明,Co-UCB 更有效。
- 通过人类反馈不断提高抽取式问答
本文研究了通过人类用户反馈不断改进提取问题回答(QA)系统的方法,并设计和部署了一个迭代方法,在多种设置下进行实验以扩大对随时间反馈学习的理解。我们的实验显示,从不同数据环境下的用户反馈中能够有效提高提取 QA 模型,包括适应领域的潜力。
- 通过随机填充实现位置嵌入的令人沮丧的简单改进
本文提出了一种简单而有效的策略 Random Padding 来平衡位置嵌入的更新次数,从而在提取式问答的模型性能上获得显著提升。在训练模型对长文本进行评估时,特别是当模型在短文本上进行训练时,Random Padding 会表现得更加优异 - ACL动量对比预训练用于问答
本研究提出了一种用于提取式问答系统的动量对比预训练方法(MCROSS),以解决现有预训练方法中存在的由于关键词匹配而导致过度拟合问题,该方法采用动量对比学习框架来对齐填空式和自然问题 - 文章样本对之间的答案概率,从而使预训练模型能够更好地 - DyREx: 动态查询表示用于抽取式问答
提出了一种新的方法 ——DyREx,通过 transformer 层的 attention 机制动态计算给定输入的 query 向量来提高 extractive question answering 的性能。
- 向右看:减轻答疑中的相对位置偏差
研究发现,抽取式问答模型可能会利用表面提示预测答案,而不是真正理解问题。相对位置也可能被利用作为这种表面提示的一种方式。为了构建一个具有普适性的抽取式问答模型,有必要找出那些有可能被利用的表面提示,并采取一些方法去防止模型利用表面提示。作者 - 2022 DADC 赛场上的长角牛:欺骗问答模型需要多少语言学家?对抗性攻击的系统方法
本文介绍了使用对抗手段来挑战自然语言处理系统的方法,并以 “longhorns” 小组在动态对抗数据收集第一次比赛中首位完成的提取型问答任务为例,强调了对抗提问的系统性和语言学知识,并描述了该小组的实验和提交结果。
- 基于知识增强对比提示的少样本抽取式问答
该论文介绍了一种名为 KECP 的新框架以解决机器阅读理解中的抽取式问答任务中的少样本学习问题,通过转换任务为非自回归掩码语言建模生成问题,并引入外部知识库和上下文来增强嵌入的查询表示,同时通过对比学习目标和 MLM 目标的联合训练来提高 - 科学审核器:用于科学事实核查的抽取式布尔问答
本文提出了一种基于多任务学习的科学问题验证方法,该方法结合了信息概括、布尔问答、提取式问题回答和语义理解技术。该方法在欧洲 PMC 的 300 万篇医学和健康领域 OA 文章上,在 BERT 和 RoBERTa 问答模型的实验中,实现了 4 - AAAIBlock-Skim: Transformer 的高效问答
通过 Block-Skim 的方法,即从 Transformer 模型的内部权重中识别出需要进一步处理和可以尽早舍弃的上下文信息,从而明显提高了 QA 模型的准确性并实现了 3 倍加速。
- 医学内容抽取式问答的序列标注
本文研究了通用和生物医学知识库中问答问题类型的不同,并提出了一种基于序列标注方法的生物医学知识库问答模型,可以直接回答多个答案,而不需要后处理步骤。
- ACL机器阅读理解的合作自训练
本研究提出了一个基于问答式任务的互动型学习环境下的 RGX 合作自训练框架,它可以自动产生更多的问题 - 答案对,以提高模型性能。实验证明,该框架在标准问答质量评估中表现优于预先训练模型和基于转移学习的方法。
- ACL概率假设很重要:改进远程监督的文档级问答模型
本文介绍了一种使用 document-level distant super-vision 解决抽取式问答问题的方法,该方法通过将问题及相关文档与答案字符串配对来实现。作者比较了概率空间和远程 supervisions assumption