基于 Transformer 的低资源增强集成方法在古兰经问答 2023 共享任务中的应用
本研究通过迁移学习和集成学习等策略,利用已有的阿拉伯语 MRC 数据,实现了对 Qur'an QA 2022 共享任务的有效问答和阅读理解,pRR 评分为 0.49。
May, 2022
本文描述了作者们在 OSACT5 古兰经问答大赛中的尝试,基于 BERT 模型的阿拉伯语变体,我们提出了一种集成学习模型,并进行了后处理来增强模型预测。我们的系统在官方测试集上达到了 56.6%的部分倒数排名(pRR)分数。
Jun, 2022
本研究描述了我们参与 CERIST NLP Challenge 2022 的 hate speech detection 共享任务的情况,通过六种 transformer 模型和两种集成方法的组合来评估我们的实验效果。我们使用基于多数投票的组合方法在五倍交叉验证方案中取得了最佳结果。该方法在测试集上的评估表明,F1-score 为 0.60,准确度为 0.86。
Mar, 2023
我们在本文中重点介绍了我们为《2023 年阿拉伯语 AI 任务评估(ArAiEval)共享任务》开展的方法。我们提出了针对共享任务的任务 1-A 和任务 2-A 的方法,重点是说服技巧检测和虚假信息检测。检测说服技巧和虚假信息已成为避免真实信息扭曲的必要手段。该任务使用多种体裁的推文和新闻文章来进行给定的二元分类问题。我们尝试了在阿拉伯语上预训练的几种基于 Transformer 的模型,并在提供的数据集上进行了微调。我们采用集成方法来提高系统的性能。我们在任务 1-A 上获得了 0.742 的微平均 F1 分数(排行榜第 8),在任务 2-A 上获得了 0.901 的微平均 F1 分数(排行榜第 7)。
Nov, 2023
本文描述了一种为个性化学习助手创建、优化和评估的问答模型,该模型使用针对阿拉伯语的 BERT transformer 进行了定制。该模型通过在巴勒斯坦课程中的科学教科书中进行优化,能够自动产生正确的科学教育问题的答案,并通过 BERT 技术的精确匹配和 F1 得分评估了模型的性能。结果显示,该模型能够理解并回答与巴勒斯坦科学教材相关的问题,展示了 BERT 问答模型在支持阿拉伯语学生的学习和理解方面的潜力。
Jun, 2024
本文介绍了一个使用维基百科作为知识来源来解决阿拉伯语开放领域事实问题回答的方法,提出了阿拉伯阅读理解数据集(ARCD),并使用预训练的双向转换器 BERT 构建了 SOQAL 系统来回答问题,实验结果表明其有效性。
Jun, 2019
介绍了 UQA,一个用于乌尔都语(Urdu)问答和文本理解的新数据集,通过一种称为 EATS 的技术,将斯坦福问答数据集(SQuAD2.0)的答案段落的翻译上下文中的答案范围进行保留,在两个候选项(Google Translator 和 Seamless M4T)中选择和评估最佳翻译模型,并对 UQA 上的几个最先进的多语言问答模型进行基准测试,其中包括 mBERT,XLM-RoBERTa 和 mT5,报告了有希望的结果。通过展示 EATS 对于创建其他语言和领域的高质量数据集的效果,证明了 UQA 对于开发和测试乌尔都语的多语言 NLP 系统以及增强现有模型的跨语言可迁移性是有价值的。UQA 数据集和代码可在 www.github.com/sameearif/UQA 上公开获取。
May, 2024
本研究描述了 SurreyAI 团队在 WMT23 的句子级直接评估共享任务中采用的方法,该方法在 TransQuest 框架的基础上利用自编码器预训练语言模型构建 MonoTransQuest 架构,并使用单一和集合设置。通过使用斯皮尔曼和皮尔逊相关系数评估机器预测质量分数与人工判断之间的关系,对 5 个语言对(英古吉拉特语、英印地语、英马拉地语、英泰米尔语和英泰卢固语)进行了评估,其中 MonoTQ-InfoXLM-large 方法在大多数语言对中显著改进了基线,并成为一种强大的策略。
Dec, 2023
在这篇论文中,我们展示了能够为低资源语言开发有效且成本低廉的 OpenQA 系统的关键要素,其中包括利用机器翻译标注数据的弱监督和目标语言中相关的非结构化知识源。我们以土耳其语为挑战性案例研究,通过 ColBERT-QA 对 SQuAD-TR 进行了调整来构建我们的 OpenQA 系统。在使用两个跨足两年的维基百科转储版本的基础上,我们与基于 BM25 和 DPR 的 QA 读取器模型相比,在 EM 得分上获得了 9-34% 的性能提升以及 F1 得分上的 13-33% 的性能提升。我们希望我们的结果可以鼓励研究人员在其他低资源语言中构建 OpenQA 系统,并将所有的代码、模型和数据集公开提供。
Jan, 2024