基于知识引导提示的因果感知概念提取
本研究提出了知识提示范式和基于知识提示的 Pre-trained 语言模型 KP-PLM 框架,该框架通过多种连续提示规则将知识子图转化为自然语言提示,并在这些提示的基础上提出了两个新的知识感知无监督任务,实验证明了 KP-PLM 在多个自然语言理解任务中的优越性。
Oct, 2022
通过对物理启发的合成数据进行实验,我们在本文中实证了基于预训练语言模型的因果推理的前述局限性,并提出了一种新的框架,将来自预训练语言模型的先验知识与因果发现算法结合起来,以初始化用于因果发现的邻接矩阵,并利用先验知识进行正则化,我们提出的框架不仅通过集成预训练语言模型和因果发现来提高性能,还建议如何利用预训练语言模型提取的先验知识与现有的因果发现算法结合。
Nov, 2023
本文通过因果分析量化和评估 PLMs 依靠生成缺失字词的单词级模式来回答 PLMs 如何正确生成结果这一谜团并发现 PLMs 更倾向于依靠与缺失字词位置接近和高频共现的单词而非知识依赖型的单词,从而得出 PLMs 因为依靠不充分的关联而效率低下地捕捉实际知识的结论。
Mar, 2022
本研究提出了 COPEN,作为探查预训练语言模型概念知识的评估基准,并通过三项任务对 PLMs 的概念知识进行综合评估,结果表明现有的 PLMs 系统性缺乏概念知识并受到各种虚假相关性的影响。
Nov, 2022
该研究量化了各种类型提示的偏差,并评估了其对不同基准测试的影响。通过提出一种基于表示的方法来缓解提示偏差,研究发现该方法不仅可以纠正由提示偏差引起的过拟合性能,还可以显著提高提示检索能力。
Mar, 2024
本研究探索了一个迭代提示框架,用于让预训练语言模型具有多步推理能力,我们提出了一种基于上下文的迭代提示器,可以动态地合成提示,以捕捉不同推理步骤之间的变化。实验证明,该方法在多步推理方面具有很好的效果。
Mar, 2022
本文利用分类法阐述了如何将外部知识融入预训练语言模型(PLMs)中解决其因缺乏外部知识而导致的推理能力不足问题,以及 KE-PLMs 在 NLU 和 NLG 任务中的应用和未来发展方向。
Nov, 2022
利用大型语言模型 PromptLink 实现生物医学概念链接,解决概念命名差异问题,从而在不同数据源之间进行集成分析,该方法通过两阶段提示实现链接,既充分利用了大型语言模型的先验知识,又提高了结果的可靠性。
May, 2024
我们提出了 ConcEPT,即概念增强的预训练语言模型,将概念知识引入 PLMs,通过预测预训练上下文中提及实体的概念来提高模型性能,并通过实验验证了该模型在实体类型等任务中改善了概念知识的有效性。
Jan, 2024
预训练语言模型可以通过闭式样式提示来推断关系性知识,使用统一的元模板设计的 CONPARE-LAMA 探针表明句子结构在知识检索性能方面具有多种可取的特性,并且领域信息相对于语法形式更可靠地提升知识检索性能。
Apr, 2024