维基百科文章的链接预测作为自然语言推理任务
本文介绍了我们在 DSAA 2023 挑战中针对维基百科文章的链接预测进行的工作。我们使用从文本中提取的词性标注特征,利用传统的机器学习模型训练分类模型,以预测两个节点之间是否存在链接。然后,我们使用这些标注进行了各种机器学习模型的测试。我们获得了 0.99999 的 F1 分数,并在竞赛中获得第 7 名。我们的源代码可以公开访问该链接。
Sep, 2023
使用自然标注的维基百科类别层次结构构建的 428,899 个短语对构成的 WikiNLI 资源,通过对 BERT 和 RoBERTa 进行预训练和模型迁移,证明可以最大限度地提高模型在自然语言推理和词汇蕴含方面的表现并在其他语言中表现良好。
Oct, 2020
这篇论文描述了如何将大规模语言模型应用于图学习,提出了 LPNL(通过自然语言进行链接预测)框架来处理大规模异构图上的可扩展链接预测任务,并通过自我监督学习细调了基于 T5 模型的链接预测模型,实验证明 LPNL 在大规模图链接预测任务上表现出色。
Jan, 2024
本研究提供了一种简单而有效的方法,利用维基百科文章中与查询类似的句子,并直接使用其中人工注释的实体作为查询的候选实体,然后使用一系列特征来排名,包括概率、上下文匹配、词嵌入以及候选实体及其相关实体之间的相关性。通过该方法我们可以在实体链接基准测试中取得更好的结果。
Apr, 2017
本研究提出了 LinkGPT,首个用于链接预测任务的端到端训练的大型语言模型 (LLM),通过有效整合结构信息和解决效率问题,在真实世界的图和零样本学习中取得了领先水平的性能。
Jun, 2024
本文提出了一种基于 Graph Neural Networks 的新型深度学习方法,以解决如何预测大型演化网络中链接出现的问题,特别地,预测与 AI 相关的主题之间的链接。实验结果表明,使用此方法能够有效地识别出节点的吸收和密集子图的合并两种模式,且模型具有较高的预测准确性。
Jan, 2022
本文提出了使用孪生神经网络的基于路径的归纳链接预测模型 SiaILP,仅依赖关系和路径嵌入,可泛化到新实体而无需微调,实验证明该模型在归纳版本的 WN18RR、FB15k-237 和 Nell995 的链接预测任务中取得了多个最新的最优性能。
Dec, 2023
本文提出了一种快速预测基于上下文表示的自然语言推理模型性能的方法,通过比较句子嵌入的余弦相似性,避免了费时的微调,减少了模型选择过程中的时间消耗。
Feb, 2022
本论文介绍了一个基于大规模数据集的自然语言理解任务 - WikiReading,通过阅读相应维基百科文章,预测结构化知识库维基数据中的文本值,并对基于深度神经网络的模型进行了比较,发现最佳模型采用了一个具有复制词汇外单词机制的词级序列模型,获得了 71.8%的准确率。
Aug, 2016