本文提出了一种新的多语言情感分类方法,使用了大量的弱监督数据训练多层卷积网络,通过在多种语言数据集上进行充分的评估,证明该方法的优异性能,达到了同类研究的最高水平。
Mar, 2017
该研究利用最先进的多语言BERT模型,对斯瓦希里语数据集进行情感分类,实现了87.59%的最佳准确率。
Apr, 2021
本文介绍了XLM-T模型,用于在Twitter中训练和评估多语言语言模型,并提供了新的强大的多语言模型基线和一组统一的不同语言的情感分析Twitter数据集和针对它们进行的XLM-T模型微调。
研究评估11种模型在27种语言中进行情感分析任务。
Apr, 2022
通过 SemEval-2023 任务12,使用 Twitter 数据组进行低资源非洲语言情感分析。使用预训练的 Afro-xlmr-large、AfriBERTa-Large、Bert-base-arabic-camelbert-da-sentiment (阿拉伯骆驼鸟Bert)、Multilingual-BERT和BERT模型对14种非洲语言进行情感分析。结果表明 Afro-xlmr-large 模型在大多数语言中表现更好,尼日利亚语言:豪萨语、伊博语和约鲁巴语相对于其他语言表现更好。
Apr, 2023
本研究旨在探讨如何利用多语言大型语言模型进行非预训练语言的情感分析,实验结果表明在提供的数据集中,使用数千样本的单语言微调可以获得最佳效果。
本研究利用多种多语种XLM-R模型和多样数据集,针对AfriSenti-SemEval 2023共享任务12的非洲语言情感分析模型进行了研究,最终在 Subtask B, Track 16: 多语言中获得了第三名的好成绩,但在某些语言表现不佳,表明需要建立更全面的数据集和模型来推进低资源非洲语言的情感分析研究。
May, 2023
该研究提供了一个由79个数据集组成的开放性跨语言语料库,可用于培训情感模型,同时展现了基于不同基础模型、训练目标、数据集集合和微调策略所进行的数百次实验的多方面情感分类基准。
Jun, 2023
通过AfriSenti-SemEval共享任务,评估了14种非洲语言情感分析中当前最先进的转换器模型,比较了用单一模型处理所有语言与为每种语言训练一个模型之间的性能。结果表明,对非洲语言专门开发的模型在所有任务上表现出色,对于一些样本较小的语言,一个更大的多语言模型在情感分类上可能比专门针对该语言的模型表现更好。
Oct, 2023
本文研究了跨多语言数据集及经过机器翻译的文本中,变压器模型在情感分析任务中的表现,并通过比较这些模型在不同语言环境中的效果,洞察其性能变化对情感分析跨多种语言的潜在影响,同时还探讨了其缺点及未来研究的潜在方向。
May, 2024