认知感知同源词检测
使用跨语言词向量检测印度 14 种语言的同源词,通过知识图谱生成上下文特征表示以提高同源词检测方法,并在 12 种印度语言和 2 种新语言上评估此方法,获得最高 18% 的 F-score 和 2.76 BLEU 的 NMT 改进,最后公开代码和数据集。
Dec, 2021
基于转换器的架构用于自动认知检测任务,在一定程度的监督下,该方法比现有方法表现更好,证明了利用标记信息的效果,并且通过接受多个序列对齐作为输入和具有链接预测头的端到端架构可以节省大量计算时间并同时产生更好的性能。
Feb, 2024
本研究提出一种使用读者眼动模式获取认知特征的方法,以增强情感分析和讽刺检测的性能,结果表明:使用这种增强型特征集合可以将极性检测的 F 分数最高提升 3.7%和 9.3%。
Jan, 2017
为了解决资源匮乏语言中的迁移学习问题,本研究提出了一种基于形态学知识的跨语言弱监督深度同源词检测框架,通过训练编码器获得语言的形态学知识,并将此知识转移至密切相关的语言以进行无监督和弱监督的同源词检测。在不同的语系上进行了实验,得到了显著的改进和超越最先进的监督和无监督方法的结果。该模型对于任何语系的各种语言都具有扩展性,因为它克服了对同源词对进行训练注释的要求。
Nov, 2023
本文介绍通过利用三个带有注释的语料库记录的注视信息,使用注视嵌入来改善 NER 模型,用于识别命名实体,展示了借助眼动数据可以提高自然语言处理模型性能的好处
Feb, 2019
我们提出了一种新型混合文本显著性模型 (TSM),首次将阅读的认知模型和显式的人类注视监督相结合,将 TSM 的预测与人类注视的真实数据高度相关,并提出了一种新的联合建模方法,将 TSM 的预测集成到网络的注意层中,从而实现了人类注视引导的神经注意力与 NLP 任务的结合,其在 QUora 问题对语料库的释义生成任务中优于当前技术水平的 PERFOMANCE BY MORE THAN 10% BLEU-4,并在 Google 句子压缩语料库中实现了最先进的性能,从而介绍了一种实用的方法,将数据驱动模型和认知模型之间桥接起来,并展示了将人眼引导的神经关注集成到 NLP 任务中的新方法。
Oct, 2020
本篇论文利用信息检索中的排名函数,应用于同源检测,针对同源检测的难点,使用语言模型平滑方法和位置分割与错误建模技术,相比其他基线方法在分类和预测中表现更佳。
Nov, 2018
介绍了一种从阅读者的眼动模式中提取认知特征,用于增强特征向量,以提高讽刺检测的性能的新机制。使用增强的特征集进行统计分类,性能提高了 3.7%(以 F-score 为度量),超过了最佳报告系统的性能。
Jan, 2017
本文讨论了在自然语言处理中解决不同任务时使用注视行为的方法,重点在于研究减轻运行时记录注视行为需求的方法,并提及了现有的多语言注视行为数据集,最后讨论了在教育领域中应用注视行为的方法与其可以帮助解决的问题。
Dec, 2021