利用领域自适应知识转移为比较分类赋能——情感分析
本文介绍了一个关于在情感分析中领域适应的研究。我们对领域相似度度量进行了广泛的研究,提出了新的表示方法、度量方法和数据选择。在推文和评论的大规模多领域适应设置中,我们评估了所提出的方法,并证明了它们一致地优于强随机和平衡的基线方法,而我们的选择策略优于实例级选择,并在大型评论语料库上获得了最佳分数。
Feb, 2017
通过将领域适应问题视为嵌入投影任务,我们提出了一种新的方法,该模型可以将两个单域嵌入空间投影到一个双域空间,以预测情感分类,并在20个来源目标域对情感分类进行领域适应实验,并在高度背离的域中表现明显优于现有技术。
Jun, 2018
本文提出一种面向跨域情感分类问题的方法,该方法采用半监督学习的想法,联合使用熵最小化和自举集成自我训练来整合未标记的目标数据进行分类器细化。实验结果表明,该方法可以更好地利用来自目标域的未标记数据,在各种实验设置中都取得了重大改进。
Sep, 2018
本文阐述了将领域自适应的 BERT 语言模型与半监督建模进行结合达到最优的 Aspect-Target Sentiment Classification ,并通过不同的数据集得出短语级别情感分类的最新成果,并通过交叉领域验证比较了自适应BERT的性能。
Aug, 2019
提出一种迭代多知识转移网络(IMKTN)模型,用于利用三个子任务之间的交互关系和易于获得的文档级标记领域/情绪知识来处理方面情感分析,并在三个基准数据集上取得了有效和优越的结果。
Apr, 2020
本文提出了一种新的框架KinGDOM,利用ConceptNet知识图谱中的通用知识和领域特定知识来丰富文档的语义,通过训练图卷积自编码器来学习交叉领域知识,同时利用外部常识知识来改进领域敌对基准方法的性能。它在交叉领域情感分析任务中展现出比其他最先进的方法更好的性能。
May, 2020
本文研究了一种称为领域增量学习(DIL)的特定连续学习(CL)环境下,一系列方面情感分类(ASC)任务的CL。 该论文提出了一种名为CLASSIC的新模型,具有对比连续学习方法,使得在测试中不需要任务ID,能够实现跨任务的知识转移和知识蒸馏。 实验结果表明CLASSIC的高效性。
Dec, 2021
提出了一个可以有效解决类别不平衡问题的Plug-and-Play Pairwise Semantic Interaction(PSI)模块,通过对成对句子的语义向量进行学习,从而增强了句子之间的高级语义特征交互,证明在四个ABSC数据集上,PSI模块比竞争对手的基线表现更好并且显著减轻了类别失衡问题。
Feb, 2022
本文提出了一种叫做Graph Adaptive Semantic Transfer(GAST)的模型,它是一种自适应句法图嵌入方法,能够从词序列和句法图中学习具有域不变性的语义特征,该模型在四个公共数据集上实验表明具有可比效果。
May, 2022
通过解决三个顺序子任务,我们提出了一种比较意见挖掘的方法,旨在识别和提取表达比较性情感的句子,并对越南产品评论中用户情感进行更深入的理解。在越南语言和语音处理(VLSP)2023年比较意见挖掘(ComOM)挑战中,我们的方法在排名中位居第五。
Jan, 2024