跨语言否定范围检测的神经网络
在多语种法律数据上,通过使用被注释的法庭判决案例集并将其应用于零射击和多语种设置中,我们解决了否定范围解析的任务,并获得了多个 F1 分数高达 91.1% 的结果。
Sep, 2023
本文中,我们提出了一种多任务学习方法,将来自句法和语义辅助任务的信息(包括否定和推测范围检测)结合起来,创建了更具鲁棒性的英语语言模型,以处理定向情感分析中的语言现象,经实验证明,基于多任务和通过语言建模的迁移学习都能提高模型性能,但总体表现仍有改进的空间。我们在此链接上发布了数据集和源代码。
Oct, 2020
本文探讨将迁移学习应用于处理生物医学领域的否定句及其范围分析问题,分析使用 BERT 作为模型的决策选择,并在 3 个数据集上获得了优秀的结果,超过了之前的最佳系统,其中包括 BioScope Corpus,Sherlock Dataset 和 SFU Review Corpus。我们还分析了模型在未经训练的数据集上的普适性。模型的令人满意的性能表明,迁移学习是解决生物医学领域问题的一种强大手段。
Nov, 2019
通过对神经机器翻译的信息流分析,我们在英 - 德和英 - 中语言对上实验并对否定语的翻译进行自动和手动评估,找到了 NMT 模型和翻译方向之间性能的变化,并发现本文所考虑的 NMT 模型最大的翻译错误类型是低估,这与以前在统计机器翻译中观察到的更多样化的错误类型相反。
Jul, 2021
本文提出了一种新的语法任务集,专注于矛盾检测,并评估了递归模型和 BERT 网络。虽然 BERT 在大多数逻辑形式上具有更好的泛化效果,但在处理计数算子时仍有待改进,同时表明该语法任务可以在不同的语言中实现并实现跨语言传递学习。
May, 2019
本研究通过四种方法评估自然语言推理 (NLI) 模型是否可以学习词汇蕴涵和否定之间的组合交互作用,并提出了一个新的自然数据集 MoNLI,其中集中了词汇蕴涵和否定的相关内容,通过对 MoNLI 的 Fine-tuning 得到的模型相较于通用 NLI 数据集拥有更好的效果,同时对当前表现最佳的 BERT 模型进行探究表明其至少部分嵌入了词汇蕴涵和否定的算法级别理论。
Apr, 2020
本文提出将 SNLI 风格自然语言推断的研究推向多语言评估,为阿拉伯语,法语,西班牙语和俄语提供测试数据,并使用跨语言词嵌入和机器翻译构建基线系统,最终系统的平均准确率超过了 75%,并着重实现了多语言推断的进一步研究。
Apr, 2017
本文提出了一种基于实体为中心的跨语言指代消解模型,利用多语言嵌入和语言无关特征进行构建,并进行了内在和外在评估。结果表明,本模型在英语训练,中文和西班牙语测试上的性能表现优异,能够在不利用任何中文或西班牙语标注数据的情况下,实现优越的实体链接精度。
Jun, 2018
本研究旨在演示一种通过词义消歧唯一地评估文本的词汇结构以检测否定的方法,从而解决否定对情感分析的影响,达到更好的准确性,并且在情感分析方面比传统方法有着显著的提高。
Feb, 2023