基于知识增强对比提示的少样本抽取式问答
我们提出了一种称为 “Query Latent Semantic Calibrator (QLSC)” 的新方法,作为现有 MRC 模型的辅助模块,通过一种独特的缩放策略捕捉查询的潜在语义中心特征,并使用注意机制将这些特征与传统的查询和段落嵌入无缝集成,从而加深了对语义查询 - 段落关系的理解,降低了对文本格式变化的敏感性,提高了模型在准确定位答案方面的能力。实验结果验证了我们的方法在处理格式变异但语义相同的查询方面的有效性和适应性。
Apr, 2024
本研究提出了一种通用的知识注入课程预训练框架(KICP),用于实现全面的知识图谱学习和知识库问答任务,并在四个真实数据集上评估了该框架的表现。研究结果表明,该框架能够取得更高的性能。
Mar, 2024
在自然语言处理领域,机器阅读理解(MRC)存在着重大挑战。尽管主流的 MRC 方法主要使用仅编码器模型(如 BERT)利用抽取策略,但生成式方法面临着超出控制的生成问题 —— 这是一个关键问题,生成的答案经常是不正确、不相关或与源文本不一致。为了解决生成式 MRC 模型的这些局限性,我们引入了 Question-Attended Span Extraction(QASE)模块。在经过预训练的生成式语言模型(PLM)的微调阶段集成 QASE 模块,显著提高了它们的性能,使它们能够超越像 GPT-4 这样的先进大型语言模型(LLMs)的抽取能力。值得注意的是,这种性能提升并没有增加计算需求。QASE 模块的有效性已经在各种数据集上进行了严格的测试,始终实现甚至超越最先进的结果(SOTA)。
Apr, 2024
在自然语言处理的问答任务中,本文的关键方向是提高表示质量和效率,通过挑战现有的问题 - 答案编码惯例,探索更精细的表示方法,并测试了不同池化方法和知识图谱的集成对于性能的影响,结果显示这些方法在提高内存效率的同时,性能上有较小牺牲,大大增加了吞吐量。
Mar, 2024
本研究提出了一种用于提取式问答系统的动量对比预训练方法(MCROSS),以解决现有预训练方法中存在的由于关键词匹配而导致过度拟合问题,该方法采用动量对比学习框架来对齐填空式和自然问题 - 文章样本对之间的答案概率,从而使预训练模型能够更好地将填空式中学到的知识应用于回答自然问题。实验结果表明,与所有基线模型相比,我们的方法在有监督和零 - shot 情况下均取得了显着的改进。
Dec, 2022
本文提出一种基于 CoT 提示的 KPE 方法,该方法结合了 Perplexity、Token-Level 相似性和 Sentence-Level 相似性的技术。实验证明,与以前的深度学习模型和单步提示方法相比,该方法的分段估计性能得到了显著提高,并且提供了更好的 MT 质量估计可解释性。
Jun, 2023
基于可编程的知识编辑,本研究提出了一种适用于多跳问题回答的框架(PokeMQA),通过解耦任务,使用分离的可训练范围探测器引导大型语言模型(LLMs)对知识增强的多跳问题进行分解,同时根据外部冲突信号调节 LLMs 的行为,从而在 MQA 的知识编辑方面表现出卓越的性能,以显著优势击败所有竞争对手,并始终产生可靠的推理过程。
Dec, 2023
本研究提出了一种名为 MMM 的基于多阶段多任务学习框架的多选阅读理解方法,其中采用了一种名为多步注意力网络 (MAN) 的新型分类器。实验证明该方法在四个代表性 MCQA 数据集上显著提高了最新技术水平。
Oct, 2019
本篇论文提出了一种新的方法,通过结合大型语言模型(LLMs)和上下文关键词提取,提升波斯语对话式问答系统(CQA)的性能,实现更准确、连贯的回答,有效处理隐含问题和依赖于对话上下文的复杂问题。评估结果显示,该方法在 CQA 性能上相较于现有方法和仅使用 LLMs 的基准测试结果高出 8%。
Apr, 2024