本文提出了一种新的方法,通过迭代学习来注入规则并学习表示以充分利用规则和嵌入,取得了高效性和可扩展性的良好平衡,并通过两个公共数据集的评估,优于当前最先进方法,提高了均值倒数排名(MRR)2.7%和 4.3%。
Jan, 2023
本文介绍了一种名为 RuleGuider 的算法,它通过整合高质量的基于符号的规则,为基于游走的代理提供奖励监督,以提高其性能。在基准数据集上的实验结果表明,RuleGuider 提高了基于游走的模型的性能而不失可解释性。
May, 2020
在金融服务领域,应用基于知识图谱的可解释推荐系统对客户提供相关的金融文章,促进客户关系、客户参与及推动客户做出明智的金融决策,并发掘了结构化数据和非结构化数据的潜在价值。
Jul, 2023
本文提出一种名为知识引导强化学习(KGRL)的框架,该框架采用一种基于嵌入式的注意机制,可以在训练和推理阶段中灵活地改编、重新排列和重复使用外部知识,使得 RL 智能体更受社会接受,并在离散和连续动作空间的任务中展现出更高的样本效率和可解释性。
Oct, 2022
该文综述了利用知识表示与推理方法在强化学习中更抽象表现和更有效学习的领域中取得的进展和应用,并讨论了未来在此领域中需要解决的挑战和可能的方向。
Apr, 2023
利用大型语言模型 (ChatRule) 在知识图谱中挖掘逻辑规则,包括基于语义和结构信息的规则生成器以及利用现有知识图谱评估和验证规则的模块,展示了方法的有效性和可扩展性。
Sep, 2023
利用强化学习和 BERT 嵌入来改进多跳知识图谱推理的方法,以提高知识图谱推理的准确性和鲁棒性。
Mar, 2024
本研究探讨了在交互式推荐系统中,如何使用知识图谱来解决强化学习中的样本效率问题以及用户反馈稀疏问题,具体包括引导候选项选择,增强项和用户状态的表示和传递用户偏好。实验结果表明,该方法具有显著的改进优势。
Jun, 2020
使用知识图谱作为机器学习分类器解释操作的术语,并提出一种提取和表示黑匣子解释的新方法。
Feb, 2022
强化学习通过自我监督预训练方法改进了知识图谱推理任务的性能,解决了动作空间大的挑战和分布不匹配问题,并且超过了现有的最先进结果。
May, 2024