- ACLMATTER: 基于异构知识源的记忆增强 Transformer
通过使用多种异构知识源,我们引入了一种高效的记忆增强变压器(MATTER)来检索相关知识,以在知识密集型任务中提高准确性和速度。
- StructLM: 构建用于结构化知识建模的通用模型
结构化数据是普遍的知识源,大型语言模型在处理结构化数据方面存在显著不足,为了增加语言模型中的结构化知识落地能力,研究人员开发了一种全面的指导调整数据集,并利用此数据集训练了一系列基于 Code-LLaMA 架构的模型,横跨 7B 到 34B - RAM-EHR:检索增强与电子健康记录上的临床预测相结合
RAM-EHR 使用检索增强技术改进了电子健康记录的临床预测,它收集多个知识源,转换为文本格式,并使用密集检索获取与医学概念相关的信息,然后使用一种一致性正则化方法来增强本地电子健康记录预测模型以捕获患者就诊和总结知识的互补信息。通过两个电 - ACL开放领域科学主张验证的知识源对比
本研究通过一系列实验测试了开放领域的声明验证系统的性能,在不同设置下使用三个常见知识来源(PubMed、Wikipedia、Google)和两种不同的信息检索技术,对四个生物医学和健康声明的最终预测进行了测试。结果显示,对于专门的生物医学声 - SUQL:基于大型语言模型的结构化和非结构化数据的对话式搜索
引入 SUQL,结构化和非结构化查询语言,它是第一个在形式上可执行表示中自然覆盖结构化和非结构化数据查询的表达。通过增加几个自由文本原语来形成精确、简洁和表达力强的表示。使用大型语言模型基于 SUQL 开发的交互式搜索代理程序,包括适用于 - 通过总结多源多观点的知识回答产品主观归纳性问题
这篇论文提出了在产品领域上回答主观归纳问题(SUBJPQA)的新任务。针对这类问题,答案并不唯一,可以从多个角度解释。为了解决这一新任务,作者提出了一种三步法,涉及知识源的检索、问题的关联和多角度答案的生成。此外,作者构建了一个大规模的数据 - Thrill-K 架构:解决基于知识理解的问题的解决方案
本研究介绍了一种基于人类知识和智能分析的混合系统分类,并提出了 Thrill-K 框架作为一种原型解决方案,该框架能够集成瞬时知识、待机知识和外部知识来源,在推理、学习和智能控制方面发挥作用。
- 利用合成的开放领域对话提高任务机器人的参与度
提出了一种自动生成结合任务导向对话和开放领域对话的框架,同时介绍了一种适用于这一任务的统一模型 PivotBot,并通过评估结果证明,该模型能够在任务导向对话和开放领域对话之间无缝切换。
- EMNLPCGoDial:中文目标导向对话评估的大规模基准
提出了 CGoDial 多领域目标导向对话评估新挑战性和综合性中文基准,包括三个使用不同知识来源的数据集(基于插槽的对话、基于流的对话和基于检索的对话),实验设置中考虑了训练集和测试集的不同组合,其中包括使用真实会话数据或通过众包添加口语特 - EMNLP通过异构知识的推理链进行开放域问答
提出一种新颖的开放领域问答框架,使用中介模块对异构知识源上的单跳 / 多跳问题进行回答。在预训练语言模型的基础上,通过将检索到的证据与其相关的全局上下文链接到图中,并将它们组织成候选证据链,实现了竞争性的性能。在两个 ODQA 数据集 OT - 整合多样知识源进行在线一次性学习新任务
研究使用多种知识源在 Soar 认知结构下开发智能体,探讨不同知识源对一次性学习新任务的作用。测试结果表明,混合不同知识源可以提高智能体的学习效率,减少人类反馈。
- 预训练语言模型在知识密集型自然语言处理中的研究调查
本文介绍了基于预训练语言模型的知识增强模型(PLMKEs)的当前进展,并通过分析三个重要组成部分:知识来源,知识密集型 NLP 任务和知识融合方法来介绍其挑战和未来方向。
- ACL通过多样化参考信息增强提高开放域对话自动评估
本文提出了一种新技术,即自动将人工生成的参考文本扩展为一组备选参考文本的技术,该技术通过从知识源中获取可信的文本响应并对其进行调整,以使其在当前对话情境中更加符合逻辑,说明其方法可以显著提高与人工系统输出评级的自动指标的相关性。
- COLING基于图形迭代检索多个知识源来提高常识问答
该研究提出了一种将多种知识源集成起来的问题回答方法,着重利用基于图的迭代知识检索模块和答案感知的注意机制,从多个知识源中检索和综合背景知识,并在 CommonsenseQA 数据集上实现了最优的表现。
- ACL整合多种知识源以消歧词义:以例为基础的方法
采用基于样例的学习算法进行词义消歧,并整合了各种知识源对词义进行消歧,包括词性、周围单词的形态、局部习惯用语和动词 - 宾语句法关系等。在常见数据集和自行构建的大型已标记语料库上,该方法提高了词义消歧的准确性。