利用事件嵌入学习语义脚本知识
本论文提出一种利用外部常识知识的方法,增强文本中提取的事件表示的有效性,实验结果表明该方法在事件相关任务中表现良好,如事件相似度计算、脚本事件预测和股票市场预测等方面得到了显著优化。
Sep, 2019
本文研究了含有时间变量的知识图谱,通过训练一个使用知识图谱背景信息和最近事件信息的事件预测模型,预测未来事件并预测知识图谱的变化,从而得到了知识图谱的演化模型,该方法在医疗应用、推荐引擎和传感器网络应用中表现良好。
Dec, 2015
本研究提出了一种新颖的、具有层级结构的半监督事件建模框架,结合序列潜变量模型和本体知识,通过一系列的结构化潜变量层对语义知识进行制导,成功提高事件建模的表现,并在两个数据集上的四种不同评估指标上均优于先前现有的最佳方法。
Dec, 2022
利用自然语言处理技术,结合知识图谱的构建和上下文关系,利用 Transformer 技术从文本中提取事实信息以构建全面的基于图的事件表示。
Mar, 2023
本文研究了利用学习表示的空间的内在几何结构来实现自动遵守复杂结构约束的本体 (分层和部分有序结构) 学习的最新工作,并探讨了对一种此类模型的两种扩展,旨在提高通识知识表示文本数据的性能。通过混合学习排序关系和非分层知识,以及利用训练数据的部分有序结构找到在配对训练过程中不好执行的嵌入之间的长距离 triplet 约束,我们发现这两种扩展都优于原始的 order-embedding 模型和其他强基线模型。
Aug, 2017
本文提出了一种叫做 VideoStory 的语义视频表示方法,通过学习来自网络视频和其描述的嵌入来构建整个表示,同时通过多模态可预测性损失来提高描述性和可预测性,并利用术语敏感的描述性损失来识别没有例子的视频事件,从而在视频事件的少量和没有例子的识别方面提高了准确性。
Nov, 2015
本文提出了一种基于事件的编码框架(REP)来预测脚本事件,该框架通过提取具有丰富事件描述的信息,包括动词的意义,额外的语义角色和参与者类型,并使用基于 Transformer 的事件编码器灵活地处理任意数量的参数。通过在广泛使用的 Gigaword 语料库上进行的实验结果表明,该框架是有效的。
Dec, 2022
研究介绍了一种基于图的时间复杂事件模式表示方法、事件预测模型及语料库,该模型可以高效地构建和评价图形式的事件模式,并且比线性表示方法更加优越,具备更高的预测能力。
Apr, 2021
本文提出了一种基于事件中心预训练的生成式方法,其使用预先训练的语言模型 Fine-Tune 并通过对序列可能性的预测进行预测,从而软建模事件之间的关联。
Dec, 2022