TartuNLP 参与 EvaLatin 2024: 情感极性检测
本文描述了 Nostra Domina 团队对 EvaLatin 2024 情感极性检测共享任务的提交。我们通过自动极性注释方法增强了拉丁语的低资源环境以及修辞体裁如诗歌中的情感复杂性,并采用多种拉丁大语言模型(LLMs)的神经架构来更好地捕捉底层上下文情感表示。我们的最佳方法在共享任务的测试集上达到了第二高的宏平均 Macro-F1 分数。
Apr, 2024
本文提出了一种简单易用的多语言情感分析框架,旨在作为情感分析测试基线和构建新情感分析系统的起点。该框架经过在 8 种不同语言的比较中,在其中三种语言的国际竞赛中名列前茅,在其他语言中也超越了报告的结果。
Dec, 2016
我们使用适配器框架基于参数高效的微调开发了一种简单、统一和计算轻量级的方法,应用于古代和历史语言的词嵌入评估,形态标注,POS 标记,词义化和字符和词级别的填充等任务,并在所有任务和 16 种语言上均匀应用了相同的适配器方法。我们的研究结果显示了在现代语言上预训练的语言模型通过适配器训练可以适应历史和古代语言的可行性。
Apr, 2024
本研究旨在为希腊语言提供情感分类,通过使用单语和多语言资源进行微调和评估 Transformers 模型,并通过在希腊议会记录中检测及研究 “厌恶” 情感,探讨了这些模型的潜力以及对使用用于污名化人的词语的情感背景转换进行了研究。
May, 2022
本文介绍了一种混合英语 - 西班牙语情感分类任务的迁移学习系统,使用 BERT 语言模型,在 ULMFiT 迁移学习管道内进行嵌入,允许我们预测 code-mixed (英语 - 西班牙语) 推文的情感极性检测。
Nov, 2020
本文描述了我们为 SemEval-2023 任务 12 而设计的系统:对非洲语言进行情感分析。为了缓解低资源环境下标记数据和语言资源的短缺问题,我们提出了一个通用的多语言系统 SACL-XLMR,用于对低资源语言进行情感分析。我们的系统在多语言和零样本情感分类子任务中表现出色,并在零样本分类子任务中获得了官方排名的第一名。
Jun, 2023
LatinPipe 使用预训练语言模型进行依存解析和形态分析,并利用多个拉丁语语料库的样本进行训练,并通过堆叠 BiLSTM 层来增加额外的上下文关联性,最终通过集成网络的输出概率分布来完成最终的解析。
Apr, 2024
本文旨在对泰米尔社交媒体评论进行情感分析,包括 11 个和 31 个特定类别的情感,通过使用转换器模型、循环神经网络和集成模型三种方法解决该问题,其中 XLM-RoBERTa 在第一个任务中表现最佳,宏平均 f1 得分为 0.27,而 MuRIL 在第二个任务中提供了最佳结果,宏平均 f1 得分为 0.13。
Apr, 2022
本文以 SemEval-2023 任务 3 “对话中多模态情绪因果分析竞赛” 的参赛报告为基础,着重从对话中提取情绪 - 原因二元组。具体而言,我们的方法通过结合经过微调的 GPT-3.5 实现情绪分类和基于 BiLSTM 的神经网络实现原因检测。在子任务 1 的排名中,我们获得第二名,并通过最高加权平均比例 F1 分数 0.264 展示了我们方法的有效性。
Apr, 2024
介绍了 BLP 情感共享任务的概述,该任务是在 2023 BLP 研讨会上举办的,与 EMNLP 2023 同时举行。该任务的定义是在给定的社交媒体文本中检测情感。
Oct, 2023