- RECALL: LLM 鲁棒性对外部反事实知识的基准测试
LLMs 与 AI 聊天机器人在提升人们在各个领域的效率方面发挥了作用,然而,回答问题所需的知识可能超出模型自身所具备的知识范围,因此有迫切需要让 LLMs 能够区分外部知识中可靠信息和对模型产生干扰的反事实信息以解决这个问题。
- KTRL+F: 知识增强的文档内搜索
介绍了一个新的问题 KTRL+F,它是一种知识增强的文档内搜索任务,通过单个自然查询实时识别文档中的所有语义目标,包括对外部来源的意识。通过增加外部知识嵌入到短语嵌入中,提出了一种平衡速度和性能的知识增强短语检索模型,用户研究证明即使使用简 - 朝着全面答案更近一步:使用大型语言模型进行约束的多阶段问题分解
通过引入 “分解和查询”(D&Q) 框架,使得大规模语言模型在回答问题时能够避免幻觉,通过引导模型思考并利用外部知识,同时限制其思考范围在可靠信息内,从而有效减轻了幻觉的风险。实验证实了 D&Q 的有效性:在我们的 ChitChatQA 数 - EMNLP知识注入框架再探
大型语言模型 (LLMs) 在全球范围内取得了重大影响,然而如何利用外部知识使这些模型更好地适应垂直领域特定任务的问题仍未完全解决。本文针对此问题进行了深入研究,提出了一种基于剪枝和净化外部知识库的方法,该方法能够克服注入知识时的常识问题, - EMNLPFLEEK:基于外部知识检测和修正事实错误
开发自动方法以减少人工检测和纠正事实错误的工作量,如从文本中提取事实性声明、收集外部知识来源的证据、评估每个声明的真实性,并使用收集到的证据提出修改建议。
- EMNLP通过检索增强的风格转移多样化问题生成
提出了一种基于检索增强风格转换的框架 RAST,用于利用多样化模板的风格进行问题生成,通过结合多样性奖励和一致性奖励的强化学习方法,得到比以往以多样性为驱动的基线系统表现更好的结果。
- 外部引导下的图像聚类
本文提出了一种新的聚类方法(TAC),利用外部知识作为一种新的监督信号来引导聚类,同时采用了文本和图像模态的相互作用,通过跨模态邻域信息相互影响来改进图像聚类性能。实验证明,TAC 在包括全面的 ImageNet-1K 数据集在内的五个广泛 - EMNLP多层自适应对比学习在对话生成中的知识内化
通过使用外部知识补充上下文,知识感知对话生成旨在减轻文本退化问题,然而,模型经常无法以人类方式将这些信息内化为响应,而仅简单地将所提供的知识片段插入到通用响应中,导致生成的响应往往乏味、不连贯且缺乏互动性,这意味着退化问题仍未解决。在这项工 - 运用外部知识激发大型语言模型在生物医学命名实体识别中的应用
通过将大型语言模型(LLMs)应用于生物医学命名实体识别(NER)任务,将 NER 任务分解为实体跨度提取和实体类型确定两个步骤,同时注入实体知识以解决 LLM 在预测实体类别时缺乏领域知识的问题,实验证明了我们的两步 BioNER 方法相 - 释放知识密集对话生成中的证据潜力
整合外部知识进入对话生成中的关键性为提高回应的正确性,在这里,证据片段作为有根据的支持性知识碎片。本文提出一种有效地整合证据到知识密集型对话生成中的框架,通过引入自动证据生成框架和证据聚焦的注意机制,扩大了证据的潜力。实验结果表明,提出的方 - 合并冲突!” 探究外部干扰因素对参数化知识图的影响
通过构建参数化知识图和引入外部知识,系统地研究了大型语言模型 (LLMs) 在与用户互动时,外部知识如何干扰其参数化知识;结果显示,LLMs 在遇到直接冲突或混淆信息时容易产生与其参数化知识不符的回复,暴露了整合外部知识时产生幻觉的风险。
- 股票价格预测中知识获取和整合的方法:一项调查
预测股票价格是一个具有挑战性的研究问题,由于股市的固有波动性和非线性特性。最近,知识增强的股票价格预测方法通过利用外部知识来理解股市,取得了突破性的成果。尽管这些方法的重要性,但从外部知识类型的角度系统地综合以前的研究工作还是相对稀缺。具体 - Thrust:自适应地利用外部知识推动大型语言模型
基于大规模预训练语言模型 (PTLMs) 的研究,提出了一种新的实例级自适应外部知识推进方法 (IAPEK),通过度量 PTLM 是否包含足够的知识来解决实例,并以 Thrust 作为检索指示器实现了显著提高的成本效益,为计算延迟或成本限制 - ACL思维链提示促进知识增强
本文提出了 CoT-KA,一种基于思维链的深度学习知识增强方法,将外部知识融入到深度模型中,结果表明在各种推理任务的十一个公开基准测试中,CoT-KA 胜过了传统的 CoT-based 方法和无增强的方法。
- 基于大型语言模型的自主视觉信息获取
本文提出了一种基于大型语言模型的自主信息查找视觉问答框架 (AVIS),包括三个组件:动态决定下一个工具的 LLM 规划器、分析和提取工具输出关键信息的 LLM 推理器,以及在整个过程中保留所获取信息的工作记忆组件。通过用户行为作为向导,该 - 询问行动前:基于语言模型的具身决策中信息的收集
提出一种名为 “行动前询问”(Asking Before Action,ABA)的方法,利用自然语言引导大型语言模型(LLMs)在未知环境中主动查询外部知识,从而增强其效率和性能,实验证明该方法在 ALFWorld 等体验决策基准中表现出更 - 使用文本接口为端到端任务导向对话系统对齐外部知识
利用文本界面使外部知识与智能体响应对齐,提高生成的自然最终响应的质量和任务成功率。
- 基于 ChatGPT 的多模态命名实体识别方法:辅助细化知识的改进
本文提出了一个叫做 PGIM 的概念简单的两阶段框架,利用 ChatGPT 作为一个隐式知识引擎获得辅助精细化知识,从而增强 MNER 任务中模型的性能,通过 PGIM 可以显著优于现有所有最先进的方法。
- HELMA: 面向大型语言模型的大规模幻想评估基准测试
本研究引入了 Hallucination Evaluation for Large Language Models(HELMA)基准来评估 LLM 的幻觉表现,并提出了基于 ChatGPT 的取样 - 过滤框架来生成大规模的,人类标注的幻觉 - Tram: 代码片段摘要的基于 Token 级别检索增强机制
本文探讨了在解码器端实现细粒度的标记级别检索来帮助生成更好的代码摘要的机制,并将代码语义融入到摘要标记中,从而显著提高了性能。