- DragAnything:使用实体表示的任意物体运动控制
DragAnything 利用实体表示来实现对可控视频生成中的任何对象的运动控制。与现有的运动控制方法相比,DragAnything 具有几个优势:轨迹为基础的方法更易于用户交互,不需要获取其他指导信号(例如,遮罩、深度图)的工作字眼;用户 - EMNLP异质知识图谱的关联问题回答
通过构建一个具有相同头部或尾部实体的关系之间的边的双重关系图,我们的方法在多个公开数据集上取得了显著的性能提升,提高了实体和关系的表示能力。
- KDD基于关系感知网络和注意力损失的少样本知识图谱补全
本文提出了一种 RANA 框架,用于处理 FKGC 任务中的零损失问题与上下文相关的实体表示,并在两个基准数据集上展示其胜过现有模型的性能。
- ACL知识库问答中应更加关注关系探索
本文提出了一种新的 RE-KBQA 框架,利用知识库中的关系来增强实体表示并引入额外的监督方法以提高知识库问答的效果,通过实验证明此框架的优越性,从而提高 F1 分数。
- IJCAI适应性路径记忆网络用于时态知识图谱推理
本文提出了一种新的建模技术,即 DAeMon (Based on Adaptive path-Memory Network),该技术通过自适应地建模历史信息中关系特征,而不是仅仅依赖于实体表示;使用了路径记忆来记录时间线上的路径信息,并考虑 - 通过描述性关系提示和对比学习进行句子级别关系提取
本文提出了一种新的范式 —— 具有描述性关系提示和对比学习的对抗性学习 (CTL-DRP),用于共同考虑实体信息、关系知识和实体类型限制,通过提出的方法,在 TACRED 上获得了 76.7% 的竞争性 F1 - 分数,在 TACREV 和 - SPOT: 知识增强语言表示,用于信息提取
我们提出了一种新的预训练模型,利用基于维基百科的知识图谱实现了在实体和关系上的双重表示,以及利用跨度模块进行有效编码,相较于现有模型使用更少的参数。实验结果表明,相比 RoBERTa 模型,我们模型在信息抽取任务上表现更好,尤其在监督学习任 - ICLRStarGraph: 基于不完全二跳子图的知识表示学习
本文提出了一种名为 StarGraph 的方法,其利用在大规模知识图谱中获取实体表示的新方法 —— 生成每个目标节点的不完整的二跳邻居子图,然后通过修改的自注意力网络处理以获得实体表示,以取代传统方法中的实体嵌入。该方法在 ogbl-wik - 使用多个嵌入表示的实体命名链接
提出了一种基于多重嵌入的命名实体链接方法,并在 Namesakes 数据集上评估了其性能。发现创建知识库实体所需的最少提及数量对 NEL 性能非常重要,并可通过调整知识库数据来改善表示,同时也发现多样化新闻语料库的语言模型比公共数据集更适合 - IJCAI知识图谱多跳推理的类型感知嵌入
本文提出了一种新颖的基于 TypE-aware 信息传递(TEMP)模型,它通过加强查询中的实体和关系表示,并同时提高了概括推理、演绎推理和归纳推理,来利用知识库中关键的语义知识,从而提高现有嵌入式模型的性能。实验结果表明其有效性。
- TranS: 基于转换的知识图谱嵌入与合成关系表示
本论文提出了一种新颖的基于转移的知识图谱嵌入方法 TranS,使用合成的关系表示法代替传统评分模式中的单一关系向量,以有效和高效地解决相同实体对具有不同关系的复杂情况,实验结果表明,该模型在 ogbl-wikikg2 上实现了最先进的表现。
- MixKG: 知识图谱中更难的负样本混合
本文提出了一种基于混合运算的负样本采样方法 MixKG,通过过滤出符合充分性和正确实体相似性两个标准的异常三元组,使用这些三元组生成更高质量的负采样,实验证明该方法优于其他采样算法。
- InterHT: 头尾实体交互的知识图谱嵌入
本文探讨知识图谱嵌入模型中基于距离的方法,在实验结果中展示了两种新颖的方法(InterHT 和 InterHT+),和对比实验结果表明我们的方法在 ogbl-wikikg2 数据集上获得了最佳结果。
- ACL生物医学可解释实体表示
本文介绍一种利用医学本体论和 Wikipedia 词条链接构建的生物医学可解释实体表示(BIER),包含了能显著提高生物医学任务表现的细粒度实体类型,并提供了一种新颖技术,用于调试模型和实体类型。
- ACLDOCENT:从大型文档集合中学习自监督实体表示
本文探讨了从大量相关文本中学习丰富的无监督实体表示。采用我们提出的训练策略,在多项与实体相关的任务中实现了良好的表现,如排序检索、知识库补全、问题回答等,并且无需人类监督。
- ACL句子级关系抽取的改进基准线
该文介绍了基于句子的关系抽取问题,着重探讨了影响现有关系抽取模型性能的实体表示和噪声标签问题,并利用预训练语言模型提出了改进的基线模型,在 TACRED 数据集上取得了 F1 分数 74.6%,在 Re-TACRED 数据集上取得了 F1 - EMNLP使用 Transformer 为端到端任务导向型对话系统建模语境化的知识图谱
本文介绍了一种称为 COmet 的用于完全情境化实体表达的 Context-aware Memory Enhanced Transformer 框架,该框架能够在任务导向的对话系统中更好地利用知识库,避免了信息丢失,并取得了卓越的性能。
- EMNLP面向文档级关系抽取的全局 - 局部神经网络
本文提出了一种新的模型对文档级别关系抽取进行建模,该模型能够对全局和局部的实体表示以及上下文关系表示进行编码并提供更好的实验结果。
- EMNLPPreCo:面向代词消解的学前词汇大规模数据集
介绍了一个大规模的英语数据集 PreCo,它设计用于解决指代消解中的核心挑战,强调实体表示、训练与测试集的重叠性和提高指代关系性能。
- COLING知识图谱推理的循环单跳预测
本文介绍了一种基于循环神经网络和实体和关系向量表示的 ROPs 方法,可以有效地预测由多跳知识库路径组成的知识图谱中的实体。该方法能够建模任意长度的多跳路径,并以训练信号为每一步更新实体和关系的表示,从而解决了知识库补全和路径查询答案等关键