KnowPhish: 基于大型语言模型和多模态知识图谱的参考式钓鱼检测增强
本研究通过将大规模视觉 - 语言模型(LVLMs)与特定领域内的造假专有知识相结合,提出了 FakeNewsGPT4,用于检测多模态假新闻并获得更优跨领域性能。实验证明 FakeNewsGPT4 在公共基准测试中表现出优越的性能。
Mar, 2024
本研究中,我们使用轻量级 adapters 来注入特定领域的知识以在 TOD 任务上进行微调,通过 KPRS 探测方法证明 adapters 对于对话生成任务有着优秀的表现。
Dec, 2022
使用大型语言模型构建知识库的 LLM2KB 系统有不同于基础模型的参数紧凑的注入模型,通过 LoRA 技术调整指令以便使用 Wikipedia 页面上下文实体,并在 LM-KBC 挑战中取得了 0.6185 的平均 F1 得分。
Aug, 2023
该论文提出了一种基于微调过程的知识感知语言模型框架,将领域知识通过关系图嵌入到预训练语言模型中并进行动态更新,取得了比其他知识增强模型更显著的机器阅读理解任务的性能改进。
Sep, 2021
通过多轮检索策略从网络源自动抽取关键证据进行主张验证的检索增强 LLMs 框架是第一种能自动地并有目的性地从网页信息中提取关键证据的框架,通过在三个现实世界数据集上进行全面的实验证明了该框架对现有方法的优越性。重要的是,我们的模型不仅提供准确的结论,还提供可读的解释,以提高结果的可解释性。
Mar, 2024
本研究采用层次化关系知识蒸馏方法压缩预训练语言模型,结合元学习以及领域关系图来捕捉不同领域的关系信息,在多领域数据集上实验证明该方法的性能优越性,以及它强大的少样本学习能力。
Oct, 2021
通过视觉 - 语言知识蒸馏 (VLKD) 增强双流 VLP 模型,使其具有多模态生成能力,实现开放式视觉问答和图像字幕等多模态生成任务的强零 - shot 性能。
Mar, 2022
通过将大型语言模型(LLM)和知识图谱(KG)结合为传统方法的语义表示形式,该研究提出了一个新的通用框架,以准确地推荐候选新闻文章给用户,从而改善了新闻推荐系统中的个性化推荐效果。
Aug, 2023
大型语言模型在各种自然语言处理任务中表现出色,但在处理需要广泛、现实世界知识的任务,特别是那些涉及长尾实体的任务时,仍然存在困难。为了解决这个问题,本研究分析了不同类型的非参数化知识对语言模型的影响,其中包括文本片段和知识图谱。通过创建一个需要长尾事实知识来回答问题的基准测试工具,我们评估了最先进的语言模型在不同知识环境下的表现。实验结果表明,单独使用语言模型来回答这些问题存在困难,特别是在需要大量长尾知识或丰富知识的情况下。然而,当为语言模型提供非参数化知识时,这些模型的性能显著提高。我们观察到,在大多数情况下,使用知识图谱三元组作为提示的语言模型表现优于使用最先进的检索器的段落提示。此外,虽然同时为语言模型提供知识图谱三元组和文档并不能始终改善知识覆盖率,但可以显著减少生成内容中的幻觉。
May, 2024