L3Cube-MahaNews:马拉地语基于新闻的短文本和长文档分类数据集
本研究介绍了 L3Cube-IndicNews,一个以新闻标题和文章为重点的多语种文本分类语料库,针对印度区域语言提供高质量的数据集。我们的工作集中在 10 种重要的 Indic 语言上,包括印地语、孟加拉语、马拉地语、泰卢固语、泰米尔语、古吉拉特语、卡纳达语、奥迪亚语、马拉雅拉姆语和旁遮普语。每个新闻数据集都包括 10 个或更多的新闻类别。L3Cube-IndicNews 提供了 3 个不同的数据集,针对不同的文档长度进行分类,分别是:包含新闻标题和新闻类别的 Short Headlines Classification (SHC) 数据集,包含整个新闻文章和新闻类别的 Long Document Classification (LDC) 数据集,以及包含新闻子文章和新闻类别的 Long Paragraph Classification (LPC) 数据集。我们在所有 3 个数据集上采用一致的标签,进行了深度基于长度的分析。我们使用 4 种不同的模型,包括单语 BERT、多语言 Indic 句子 BERT (IndicSBERT) 和 IndicBERT,对每个 Indic 语言数据集进行了评估。本研究在扩大可用的文本分类数据集方面做出了重要贡献,也为开发面向印度区域语言的主题分类模型提供了可能。由于各语言之间标签的高度重叠,这也是进行跨语言分析的极好资源。数据集和模型已公开共享于此 https URL。
Jan, 2024
该研究介绍了 L3Cube-MahaCorpus,这是一个从不同互联网来源抓取的马拉提语单语数据集,它包含 24.8M 句子和 289M 个记号。该研究基于这个数据集训练了多个模型,如 MahaBERT、MahaAlBERT、MahaRoBerta 和 MahaFT 等,并且展示了它们在下游任务中的有效性。这项工作是为了为马拉提语的开放资源建立一步。
Feb, 2022
L3Cube-MahaNLP 旨在为印度第三流行的马拉地语构建 NLP 资源和库。该论文提出了针对情感分析、实体识别和仇恨言论检测的数据集和变形器模型,并发布了一个单语马拉地语语料库。作者的目标是为马拉地语准备有用的资源,并提供 MahaCorpus、MahaSent、MahaNER 和 MahaHate 数据集及其相应的 MahaBERT 模型。
May, 2022
该研究介绍了 L3Cube-MahaHate,这是首个主要的马拉地语恶意言论数据集,收集自 Twitter 上的超过 25000 条不同推文,并基于卷积神经网络、LSTM 和 Transformers 构建基线分类模型,结果表明单语言模型胜于多语言模型,其中 MahaBERT 模型在 L3Cube-MahaHate 语料库上表现最佳。
Mar, 2022
介绍了 L3Cube-MahaSent-MD 数据集,它是第一个综合的多域情感分析数据集,可用于印度情感领域,包括 4 种不同来源的标注语料(60,000 个样本),涵盖了 3 种不同情感(积极、消极和中性),使用 MahaBERT 模型获得最佳准确性表现。
Jun, 2023
该研究论文介绍了 L3Cube-MahaSocialNER 数据集,这是第一个也是最大的社交媒体数据集,专门用于马拉地语命名实体识别 (NER)。该数据集包含 18,000 个经过手工标记的句子,涵盖了八个实体类别,解决了社交媒体数据的挑战,包括非标准语言和非正式成语。研究评估了深度学习模型,包括 CNN、LSTM、BiLSTM 和 Transformer 模型,使用 IOB 和非 IOB 标记在单个数据集上取得了效果。结果表明,这些模型能够准确识别马拉地语非正式文本中的命名实体。L3Cube-MahaSocialNER 数据集提供以用户为中心的信息提取,并支持实时应用,为社交媒体平台上的舆情分析、新闻和营销提供了宝贵的资源。我们还展示了常规 NER 模型在社交 NER 测试集上的零样本结果较差,强调了需要更多的社交 NER 数据集。该数据集和模型已公开提供,网址为 https URL。
Dec, 2023
本文首次提出 L3Cube-MahaNER,这是一份 Marathi 语言的命名实体识别的黄金标准数据集,使用了不同基于 CNN、LSTM、变压器的模型进行了基准测试,发现 MahaBERT 表现最佳。
Apr, 2022
本文介绍了用于 Marathi 语言情感分析的第一个主要公开数据集 L3CubeMahaSent,该数据集包括大约 16,000 条来自名人推特账户的推文,使用 CNN、LSTM、ULMFiT 和 BERT 等深度学习模型对其进行了基础分类结果的统计。
Mar, 2021
本文介绍了使用合成的 NLI 和 STS 数据集,针对印地语和马拉地语这两种低资源语言,使用 NLI 预训练和 STSb 微调策略训练生成的高性能 Sentence-BERT 模型,并在下游文本分类和相似性任务中进行了评估。同时,提出了基于不同模型的句子嵌入的比较分析,并释放了 L3Cube-MahaSBERT 和 HindSBERT。
Nov, 2022
本文介绍了一个新的程序混合(Code-mixed)语料库及预训练模型,为印度语言 Marathi 的程序混合研究奠定了基础,并提供了三个数据集用于下游任务。
Jun, 2023