使用大型语言模型(GPT-3.5 和 GPT-4)进行标注,研究了主动学习中减少标注成本和采样效率的方法。采用混合注释策略,将可能标注错误的样本与人工注释相结合,可以在 AG 新闻和腐烂的番茄等数据集上取得与人工注释相似甚至更好的结果,证明了大型语言模型在主动学习中的准确性和成本效益。
Jan, 2024
本文综述了多任务学习在自然语言处理领域的应用。在介绍多任务学习的架构和优化方法后,着重讨论了在多个自然语言处理任务上的表现,最后探讨了相关研究方向。
Sep, 2021
机器学习模型处理自然语言处理(NLP)中的多任务学习(MTL)及持续学习(CL)的挑战、机会和应用,以及对基于 Transformer 的 MTL 架构的系统分析。
Aug, 2023
本文使用 Joey NMT 工具包中的 Active Learning 技术,通过两种基于模型的获取函数 (BM, FTM, ALLCM, 和 ALMSM),研究了英语到印地语的神经机器翻译。本文的结果表明,Active Learning 技术能够使模型更早地达到收敛并提高整个翻译系统的质量,其中 ALLCM 和 ALMSM 两种模型取得了最好的 BLEU 分数。
Dec, 2022
提出了一种利用自监督学习和小规模词典来初始化神经机器翻译(NMT)模型,在初始化后使用主动学习策略提高低资源条件下(如稀缺语言)翻译模型性能的方法,并提出了一种基于领域适应的新型主动学习策略。除此之外,我们还表明,使用这种初始化方法和主动学习策略可相比于传统方法提高最多 13 个 BLEU 点。
Jan, 2022
本文是第一次系统地研究了主动学习在文本生成方面的应用,研究表明现有的主动学习策略在文本生成场景下效果不佳,无法持续超越随机示例选择的基准线。
May, 2023
本文研究主题为探究主动学习中数据集可迁移性的影响因素,结果表明,使用相似的问询顺序能够获得高度可迁移的数据集,掌握掌握合适的主动学习方法比选择合适的模型更加重要。
本文研究比较了三种自然语言处理中的迁移学习方法,即 STILTs、MTL 以及 MTL-ALL 的表现。结果显示,MTL-ALL 的性能不如其他两种方法,而在目标任务比较少的情况下,性能较好的是采用 pairwise MTL 方法。
May, 2022
本研究提出了一种在法律领域内使用主动学习与预训练语言模型的管道,其中利用了三个阶段的未标记数据,通过知识蒸馏引导模型的嵌入到一个语义上有意义的空间,并提出了一种简单而有效的策略找到初始的标记样本,实验表明相比传统方法在数据标注成本上更为高效且性能更好。
Nov, 2022
ALTER 是一个基于小型语言模型的多任务学习系统,它通过混合任务适应器来同时处理多个自然语言处理任务,以支持领域特定的应用。实验证明,ALTER 提出的 MTA 架构和二阶段训练方法实现了良好的性能。
Sep, 2023