基于 Transformer 模型的法语问答任务的可用性研究
本研究采用新的基准测试方法,重点评估了 13 种 Transformer 模型在两个已有的法语口语理解任务中的质量和其生态影响,并证明了压缩模型可以取得较大模型相似的结果,同时具有较小的生态环境影响。
Jul, 2022
本文旨在研究和比较不同的预训练语言模型在回答问题的能力上的表现,通过使用 Bert-BiLSTM 结构模型的效果来检验双向流的加入是否能够提高模型性能,并发现 RoBERTa 和 BART 表现最佳。
Oct, 2021
本文提出一种方案,使用几个样本训练的神经网络和多语言 Transformer 基础模型之间协同作用的跨语言转移,以改进跨语言学习的性能,实验结果表明,我们的方法能够显著提高跨低资源语言与高资源语言之间的转移学习性能,进一步的结果证明了 meta-learning 的能力。
Jul, 2022
本文提出一种用于低资源语言的提高问答技术的方法,即通过翻译和转写将问题回答样本扩充到目标语言,利用增广数据微调已经在英语中预训练的 mBERT 问答模型,并引入对翻译问题上下文特征对之间的对比损失来提高不同语言家族的翻译准确性。
Apr, 2022
本文探讨了在大规模数据集上对 transformer 模型进行语言模型的预训练,并在 QA 和 CQA 数据集上微调 BERT 模型进行答案选择任务,在 QA 数据集中观察到了最大 13.1% 的提升,在 CQA 数据集中观察到了最大 18.7% 的提升。
Nov, 2020
该论文通过对 NLP 的演变及其应用的准确性和效率的评论,以及提出和硬件考虑下对基于 transformer 模型的效率进行改进的研究贡献的调查,旨在确定当前 NLP 技术对可持续社会的贡献,并为未来研究奠定基础。
May, 2024
神经语言模型在没有直接监督的情况下学习各种语言属性的能力已被多个研究证明。本研究初步探索神经模型如何发现词语的语言属性(如性别)及其使用规则这一较少研究的主题。我们建议使用基于法语的 PCFG 生成的人工语料库来精确控制训练数据中的性别分布,并确定模型在何种条件下正确捕捉性别信息,或出现性别偏见。
Oct, 2023
本研究通过利用网络爬虫数据构建法语单语语料库,研究了训练法语单语 Transformer-based 语言模型的可行性,并在词性标注、句法分析、命名实体识别和自然语言推理等任务上取得了准确的结果。
Nov, 2019
本研究探讨了如何在不需要从头开始的情况下,在预训练的神经语言模型中添加显式的语言学信息,以提高其性能,并提出了一种基于转换器的神经语言模型,通过异构图转换器对模型进行扩展和微调,这可以通过添加句法信息来实现,而基于斯坦福问答数据集的实证性能评估表明了该方法的竞争性。此方法包括语义和语用方面的信息,具有可扩展性。
Apr, 2022
本研究提出了一种简化的 Switch Transformer 架构,针对小型法国临床文本分类数据集进行 scratch 训练。结果表明,简化的小型 Transformer 模型的性能优于包括 DistillBERT、CamemBERT、FlauBERT 和 FrALBERT 在内的预训练 BERT 模型。
Mar, 2023