May, 2024

TEII: 跨语言情感检测中的思考、解释、交互和迭代

TL;DR我们参与了 Explainability of Cross-lingual Emotion Detection(EXALT)共享任务,在情感检测子任务的评估集上实现了 0.6046 的 F1 分数,超过基准模型 0.16 个 F1 分数,并在竞争系统中排名第二。我们通过使用 Fine-tuning、Zero-shot learning 和 Few-shot learning 方法在基于 Large Language Model(LLM)和非 LLM 的技术中,包括嵌入式的 BiLSTM 和 KNN 进行实验。此外,我们引入了两种新方法:多次迭代代理工作流和多二元分类器代理工作流。我们发现 LLM 方法对多语言情感检测提供了良好的性能。此外,将所有实验模型组合起来的集成模型比任何单一方法都有更高的 F1 分数。