BanglaNLP 参与 BLP-2023 任务 2:对孟加拉社交媒体帖子的情感分析进行不同 Transformer 模型的基准测试
本论文描述了我们在 BLP 研讨会的共享任务 2 中对孟加拉社交媒体帖子进行情感分析的方法,我们通过使用多语言 BERT 模型进行实验和微调,并使用多数投票和加权集成模型,取得了优于基准模型的成绩,分数为 0.711,排名共享任务排行榜的第 10 位。
Oct, 2023
本文讨论了 nlpBDpatriots 参加首届与 EMNLP 合作举办的 Bangla 语言处理(BLP)研讨会上共享任务的社交媒体帖子情感分析。我们使用孟加拉语数据集,该数据集由共享任务组织者提供,并注有积极、中性和消极标签,旨在确定社交媒体内容的极性。我们最好的系统是数据增强的迁移学习方法,其 micro F1 分数达到 0.71。在参加比赛的 30 支球队中,我们的最好系统排名第 12 位。
Nov, 2023
该研究以 BanglaBert 为基础,利用多种策略进行情感分析,并建立了一个包含三种最佳 BanglaBert 变体的集成模型,在 BLP-2023 中的排名为第三。
Nov, 2023
本研究通过开发系统解决孟加拉暴力煽动文本检测的共享任务,探讨了我们所采用的传统和最新方法,该系统有助于分类给定文本是否包含威胁。实验研究了在有限数据集情况下数据增强的影响,定量结果表明,与其他基于变压器结构的模型相比,微调多语言 - e5 基础模型在任务中表现最佳。 在测试集中,宏 F1 得分达到了 68.11%,并且在该共享任务的排行榜中排名第 23 位。
Oct, 2023
本研究通过 33,605 条孟加拉文新闻推文和 Facebook 评论创建了一个庞大的手动注释数据集,并对 Flan-T5、GPT-4 和 Bloomz 等多种语言模型进行了零指导和少量指导的上下文学习,与精细调优模型进行了比较分析。研究结果表明,在零指导和少量指导的场景下,单语言变换器模型始终优于其他模型。为了促进进一步的研究探索,我们打算向更广泛的研究社区公开提供这个数据集和我们的研究工具。
Aug, 2023
我们的研究关注心理健康和社交媒体之间的重要联系,特别是在外向的社交媒体用户中早期检测到抑郁症。通过使用 GPT 3.5、GPT 4 和我们提出的 GPT 3.5 微调模型 DepGPT,以及先进的深度学习模型(LSTM、Bi-LSTM、GRU、BiGRU)和 Transformer 模型(BERT、BanglaBERT、SahajBERT、BanglaBERT-Base),我们对 Reddit 和 X 数据集进行分类,并由精通心理健康的母语使用者将其翻译成孟加拉文,从而创建了孟加拉社交媒体抑郁数据集(BSMDD)。我们的工作提供了每个模型的完整架构细节,并提供了一种系统评估其在孟加拉抑郁文本分类中的性能的方法,使用零样本学习和少样本学习技术。我们的工作证明了 SahajBERT 和具有 FastText 嵌入的 Bi-LSTM 在各自领域的优越性,并解决了 Transformer 模型的可解释性问题,强调了 LLM 的有效性,特别是 DepGPT,在各种学习环境中的灵活性和能力。根据实验结果,所提出的 DepGPT 模型不仅在零样本学习和少样本学习场景中胜过了 Alpaca Lora 7B,而且在准确度和 F1 分数方面也优于其他模型,达到了近乎完美的准确度为 0.9796 和 F1 分数为 0.9804,拥有高召回率和卓越精确度。尽管竞争激烈,GPT-3.5 Turbo 和 Alpaca Lora 7B 在零样本学习和少样本学习情况下相对效果较差。这项工作强调了 LLM 在各种语言环境中的有效性和灵活性,为抑郁症检测模型的复杂领域提供了深入的信息。
Jan, 2024
本文提出 BanglaNLG,用于评估 Bangla 自然语言生成(NLG)模型的全面基准,并介绍了六个具有挑战性的条件文本生成任务和一个新的对话生成数据集。利用 27.5 GB 干净的 Bangla 数据集,预训练了 BanglaT5,一种面向 Bangla 的序列到序列 Transformer 语言模型。 BanglaT5 在所有任务中均达到最先进的性能,比多语言模型高出 9%的绝对收益和 32%的相对收益。我们将新的对话数据集和 BanglaT5 模型公开发布,以期推动未来的 Bangla NLG 研究。
May, 2022
介绍了 BanglaBERT 模型,它是在一种 NLP 文献中被广泛使用但语料库有限的低资源语言 - 孟加拉语上进行预训练的 BERT-based NLU 模型。通过对 110 个流行的孟加拉网站进行爬取,作者们收集了 27.5 GB 的 Bangla2B+ 语料库。在多项不同的 NLU 任务中,BanglaBERT 均取得了最好的效果,同时也将这些任务纳入了首个 Bangla Language Understanding Benchmark (BLUB)。模型、数据集和排行榜已公开,为孟加拉自然语言处理的进一步发展做出了贡献。
Jan, 2021
通过综合评估,本研究在低资源语言(如孟加拉语)的自然语言推理任务中评估了知名大型语言模型和最先进模型的性能,发现虽然大型语言模型在少样本情况下可以达到与微调后最先进模型相媲美或优越的性能,但需要进一步研究来提高我们对大型语言模型在类似孟加拉语等资源有限的语言中的理解。该研究强调了在不同语言环境中探索大型语言模型能力的持续努力的重要性。
May, 2024