利用自然语言处理技术,结合知识图谱的构建和上下文关系,利用 Transformer 技术从文本中提取事实信息以构建全面的基于图的事件表示。
Mar, 2023
本研究基于任务版本的概念,通过发展一种启发式工具 DirectProbe 直接研究表示物的几何结构,揭示了嵌入空间如何表示标签,并预测了分类器的性能。
Apr, 2021
本研究提出通过基于转换的框架实现文档级事件和关系提取自动化错误分析,进而比较两种最先进的模板填充方法在三个领域的数据集上的表现,并对信息提取领域自其 30 年前创始以来的发展进行了评估。
Sep, 2022
该研究基于 contextualized language representations 和 pretrained BERT model 开发了一种新的 event coreference 任务模型,通过训练神经网络分类器和简单的聚类算法,取得了 state-of-the-art 的实验结果。
Feb, 2021
本文研究了文档级事件抽取中跨句子事件命名的问题,并提出了一种多粒度阅读器,用于动态汇集不同粒度的神经表示学习的信息。通过在 MUC-4 数据集上进行实验,表明本文提出的最佳系统的表现显著优于先前工作,并对上下文长度和神经模型性能之间的关系进行了分析。
May, 2020
这篇综述研究对最近的文档级信息抽取文献进行了系统回顾,通过与当前最先进的算法进行彻底的错误分析,确定它们的局限性以及文档级信息抽取任务的剩余挑战,包括标签误差、实体关联解析和缺乏推理,严重影响文档级信息抽取的性能。本综述的目标是为 NLP 研究人员提供更多见解,帮助进一步提高文档级信息抽取的性能。
Sep, 2023
利用网络爬取的大规模视频 - 文本对数据作为弱监督,视频理解模型的能力在事件层面的差异中辨别和理解细粒度事件方面仍存在问题,通过提出 SPOT Prober 方法并进行实验证明,通过将操作后的事件描述插入作为难负样本能有效增强模型对事件理解的能力。
Nov, 2023
本文提出了一种基于 GRU 的模型,结合了注意机制,将语法信息和时间结构相结合,具有与其他神经网络架构相当的性能,在 ACE2005 数据集的不同随机初始化和训练验证测试划分下进行了经验评估。
Aug, 2018
采用对比度表示学习方法的实体和事件共指解析技术,通过仅在推理时进行 n 个转换器计算的对比度学习技术,实现了对 ECB + 语料库关键指标的最先进结果和其他指标的竞争性。
May, 2022
本文讨论了自然语言处理系统中之前探测语言结构方法的缺陷,并提出了基于多元高斯探针的内在探测框架,以便于检测词向量的语言信息。通过 36 种语言的实验证明,多数形态语法特征由少数神经元可靠编码,而 fastText 相较于 BERT 更加集中其语言结构。
Oct, 2020