该研究比较了几种学习策略以减少使用自监督模型进行训练的计算时间和能源消耗成本,同时在 FSC 和 MEDIA 语料库上的实验表明,该方法可以在保持最先进性能的同时降低学习成本。
Jul, 2022
本研究采用新的基准测试方法,重点评估了 13 种 Transformer 模型在两个已有的法语口语理解任务中的质量和其生态影响,并证明了压缩模型可以取得较大模型相似的结果,同时具有较小的生态环境影响。
本文介绍了一种适用于语言习得的基准测试方法,该方法可以在词汇和句法水平上测试口语识别模型的能力,旨在进一步深入理解婴儿学习语言的过程以及使自监督学习技术能够充分发挥潜力,同时还需要克服文本和语音之间以及清晰语音和野外语音之间的差距。
Jun, 2023
本文研究了使用多种预训练模型对法语口语对话进行自动摘要,并发现在 DECODA(呼叫中心)对话语料库上,BARThez 模型的性能显著优于先前的最先进水平,同时也讨论了这种预训练模型的局限性和需要解决的挑战。
该论文介绍了 LeBenchmark 2.0,一个用于评估和构建搭载自监督学习的法语语音技术的开源框架,其中包括大量不同类型的语料库,包含长达 14,000 小时的异构语音数据,十个预训练的 SSL wav2vec 2.0 模型,与社区共享的可学习参数介于 2600 万到 10 亿之间,并提供六个下游任务的评估协议以补充现有基准。LeBenchmark 2.0 还对针对语音的预训练 SSL 模型提供了独特的视角,包括冻结与微调的下游模型、任务不可知与任务特定的预训练模型,并讨论了大规模模型训练的碳足迹。
Sep, 2023
该研究报告了一系列实验证明,LeBenchmark 这个经过预训练的法语口语模型,可以通过测验其各个表示层的句法信息,从而证明它已经学到了一些句法信息。句法信息更容易从网络的中间层中提取,之后观察到了一个非常明显的降低。
Mar, 2024
自我监督学习在计算机视觉、自然语言处理、生物学和语音等多个领域取得突破,然而现有方法的计算成本较高,限制了模型的部署、训练数据集的规模以及拥有大型自我监督模型的研究机构的数量。因此,需要进一步研究以解决自我监督表示学习中高计算成本的问题。
Dec, 2023
研究通过对 Transformer-based architectures 的改进和优化,尤其是在数据增强、超参数优化和跨语言转移方面,提高了法语低资源情况下的问答表现,并引入了一种紧凑的法语 FrALBERT 模型。
本文主要探讨了在端到端语音翻译中数据稀缺的问题,并提出了一种利用级联和端到端语音翻译模型生成伪标签的方法,在 MuST-C 英法和英德数据集上达到了领先水平,同时也比仅对编码器进行语音识别任务的预训练方法更加有效。最后,通过直接使用端到端模型生成伪标签的自我训练方法证明了其有效性。
Jun, 2020
首次公开提供的法语生物医学语言理解基准 DrBenchmark,评估 8 种最新的预训练掩码语言模型 (MLMs) 的通用和生物医学特定数据上的性能,以及英语特定的 MLMs 来评估它们的跨语言能力。
Feb, 2024