MentalQA:一个用于心理保健问题和回答的阿拉伯语语料库
这项研究评估了基础模型在心理健康护理问题和回答分类中的效果,并发现预训练语言模型(PLMs)在捕捉语义意义方面具有非常好的结果,对于阿拉伯语的心理健康支持具有很大的潜力。
Jun, 2024
本文提出 PsyQA 数据集 - 一份汇集了 2.2 万个问题和 5.6 万个答案的中文心理健康支持数据集。该数据集基于心理咨询理论进行标注,包含典型支持策略和词汇特征,同时通过使用生成预训练模型进行答案生成并取得了成功,但这方面仍有很大的研究空间。
Jun, 2021
本文介绍了一个使用维基百科作为知识来源来解决阿拉伯语开放领域事实问题回答的方法,提出了阿拉伯阅读理解数据集(ARCD),并使用预训练的双向转换器 BERT 构建了 SOQAL 系统来回答问题,实验结果表明其有效性。
Jun, 2019
本文描述了一种为个性化学习助手创建、优化和评估的问答模型,该模型使用针对阿拉伯语的 BERT transformer 进行了定制。该模型通过在巴勒斯坦课程中的科学教科书中进行优化,能够自动产生正确的科学教育问题的答案,并通过 BERT 技术的精确匹配和 F1 得分评估了模型的性能。结果显示,该模型能够理解并回答与巴勒斯坦科学教材相关的问题,展示了 BERT 问答模型在支持阿拉伯语学生的学习和理解方面的潜力。
Jun, 2024
本文提出了一种新的方法,通过对关注精神分裂症和不同心理障碍的人群在 “心理健康” 论坛上发表的帖子进行概括,获得了一个低偏差、无隐私问题的用于问答模型实施的精确数据集,并利用各种模型的细调评估,展示了该方法获取准确数据集的有效性,BioBERT 模型的细调获得了 0.885 的 F1 得分,在心理障碍领域表现优于现有模型。
Sep, 2023
通过重新利用其他 NLP 任务的现有注释,我们提出了一种新的方法来生成特定领域的大规模问答(QA)数据集。我们利用社区共享的 i2b2 数据集中临床笔记的现有专家注释,生成了大规模的电子医疗记录 QA 数据集 emrQA,其中包含 100 万个问题 - 逻辑形式对和 40 多万个问题 - 答案证据对,并通过基线模型训练来探索其学习潜力。
Sep, 2018
使用 QA 方法和统一 QA 模型在两个大型的精神健康数据集上评估心理健康风险,并通过差分隐私来保护用户数据,结果表明在精神健康用例中将风险评估建模为 QA 任务具有良好的性能,为隐私保护诊断系统的发展提供了一个有前途的研究方向。
Jun, 2023
介绍了 UQA,一个用于乌尔都语(Urdu)问答和文本理解的新数据集,通过一种称为 EATS 的技术,将斯坦福问答数据集(SQuAD2.0)的答案段落的翻译上下文中的答案范围进行保留,在两个候选项(Google Translator 和 Seamless M4T)中选择和评估最佳翻译模型,并对 UQA 上的几个最先进的多语言问答模型进行基准测试,其中包括 mBERT,XLM-RoBERTa 和 mT5,报告了有希望的结果。通过展示 EATS 对于创建其他语言和领域的高质量数据集的效果,证明了 UQA 对于开发和测试乌尔都语的多语言 NLP 系统以及增强现有模型的跨语言可迁移性是有价值的。UQA 数据集和代码可在 www.github.com/sameearif/UQA 上公开获取。
May, 2024
本文介绍了 ArabicaQA,这是第一个用于阿拉伯语机器阅读理解和开放域问题回答的大规模数据集,包含了 89095 个可回答和 3701 个无法回答的问题,以及其他标记的开放域问题。同时还介绍了 AraDPR,这是第一个针对阿拉伯文本检索的密集段落检索模型,经过阿拉伯维基百科语料库的训练,专门用于解决阿拉伯文本检索中的独特挑战。此外,我们还对大型语言模型在阿拉伯语问题回答中进行了广泛的基准测试,并对其在阿拉伯语环境中的性能进行了批判性评估。总之,ArabicaQA、AraDPR 和在阿拉伯语问题回答中的语言模型基准测试为阿拉伯语自然语言处理领域带来了重要的进展。数据集和代码对于进一步研究都是公开可访问的。
Mar, 2024
该研究提出了一个名为 MLQA 的多语言提取式问答(QA)评估基准,旨在推动跨语言 QA 研究。 MLQA 包含 7 种语言的 QA 实例,并使用一种新颖的对齐上下文策略,基于 Wikipedia 文章构建,以此作为现有提取式 QA 数据集的跨语言扩展。
Oct, 2019