跨语言结构化情感分析的知识增强对抗模型
提出了 Adversarial Bi-directional Sentence Embedding Mapping(ABSent)框架,它能够从有限量的平行数据中学习跨语言句子表示的映射,解决了跨语言转移学习中平行数据量有限的问题。
Jan, 2020
本研究提出了一种基于双向长短期记忆的新型两层注意网络,利用 WordNet 生成知识图嵌入来提高情感分析的预测能力,将其与基于支持向量回归和多层感知机网络的监督模型相结合,实验结果表明该模型在 SemEval 2017 上表现优于顶尖系统,分别将 Sub-tracks 1 和 2 的准确率提高了 1.7 和 3.7 个百分点。
May, 2018
本文提出了一种新方法,通过解决上下文特定词义的挑战来提高情感分析的效果。它结合了双向长短期记忆网络(Bi-LSTM)和知识图谱的同义词数据的优势,利用动态注意力机制开发出一种知识驱动的状态向量。为了对特定方面的情感进行分类,该方法构建了一个集成位置数据的存储库,然后使用多层门控循环单元(GRU)分析此数据以确定与特定方面词相关的情感特征。对三个广泛可用的数据集的测试结果表明,该方法在情感分类方面表现出优秀的性能。
Dec, 2023
本研究提出了两种情感感知的辅助任务:情感词谜和条件情感预测,以更轻量的方式从情感知识中受益,并通过多种标签组合方法进行实验验证,结果表明该方法始终优于预训练模型并且在现有知识增强后训练的模型中具有增益效应。
Feb, 2022
本研究提出了 KDMCSE,一种基于知识蒸馏的多模态对比学习方法,通过利用教师模型的知识来增强多模态表示的区分性和泛化能力,有效地检测和消除有噪声和错误的负样本,同时引入了 AdapACSE,一种新的自适应角度间隔有监督对比学习方法,增强了在角度空间中的边界,捕捉了负样本中不同的语义变化。在广泛使用的语义文本相似性基准测试中,实验证明了我们方法的有效性。
Mar, 2024
该论文提出了一种基于对比学习的 LMKE 方法,采用语言模型从文本信息中推导出知识嵌入,旨在丰富长尾实体的表征,并解决以前的基于描述的方法的问题,实验结果表明 LMKE 在知识嵌入基准测试中特别是长尾实体上取得了最先进的性能.
Jun, 2022
提出了一种名为 SSCAE 的自然语言生成器模型,它是一种实用且高效的对抗性攻击模型,能够生成具有语义、句法和上下文感知的自然语言对抗性示例,通过比较实验和参数优化敏感性分析验证了该模型的有效性和优越性。
Mar, 2024
该研究提出了一种针对低资源语言情感分类问题的迁移学习技术,通过共享特征提取器和对抗性分支实现跨语言情感分析,并在中文和阿拉伯语情感分类实验中显著优于现有系统。
Jun, 2016
该研究提出了一种名为 KGAN 的知识图增强网络,旨在增强对细粒度情感分析任务的理解。该方法通过并行学习语境和句法表示来捕获情感特征,然后结合知识图和 RoBERTa 模型进一步获取方面特定的知识表示,并通过分层融合模块进行完整的特征表示。该方法在五个流行的 ABSA 数据集上进行了大量实验,并在所有数据集中实现了最先进性能的新纪录。
Jan, 2022