Spivavtor: 一种针对乌克兰文本编辑的指令调整模型
本文提出 EditEval:一种以指令为基础的评测套件,利用高质量的现有和新数据集自动评估编辑能力,证明了 InstructGPT 和 PEER 的表现最佳,而大多数基线都低于监督学习 SOTA,本文通过这个基准的发布和公开可用的排行榜挑战,希望能够解锁未来发展能够进行迭代和更可控编辑的模型的研究。
Sep, 2022
我们介绍了 mEdIT,这是对写作辅助的最新文本编辑模型 CoEdIT 进行的多语言扩展。通过指导调整,我们使用多语言大型预训练语言模型(LLMs)进行微调训练 mEdIT 模型,它被设计成根据用户的自然语言指令来指定所需文本的属性,如德语的 Grammatik korrigieren 或西班牙语的 Parafrasee la oración。通过对多个公开可用的人工标注文本编辑数据集进行数据整理,我们构建了 mEdIT,并详细介绍了其设计与训练,并展示了其在其他多语言 LLM 的许多多语言文本编辑基准测试中的强大表现。我们还发现,mEdIT 在基于多语言的基线上能够有效地进行新语言的泛化。我们在此 URL 公开发布了我们的数据、代码和训练模型。
Feb, 2024
本文使用文本编辑的概念,利用俄语平行语料库,构建两步标记为基础的脱毒模型,实现了最佳的样式转移准确性,并且超过了更大的序列到序列模型。
Apr, 2022
本研究基于指令调整的 LLMs 语言模型,开发了一种名为 CoEdIT 的文本编辑模型,提供高质量和高效率的写作辅助。经过定量和量化分析,我们证明作家们更喜欢 CoEdIT 建议的编辑方式,相对于其他最先进的文本编辑模型。
May, 2023
该研究提供了一个文本挖掘工具 StyloMetrix 的概述,该工具最初为波兰语开发,后来扩展为英语和乌克兰语。研究人员使用计算语言学家和文学研究人员手工制作的各种度量衡来构建统计评估句法和语法特征的思路是直接而熟悉的,但对于乌克兰语等低资源语言,该工具仍需开发。该论文描述了 StyloMetrix 的流程和用于文本分类任务的一些实验,同时也描述了该包的主要限制和度量衡的评估程序。
May, 2023
为了解决非英语文本生成的挑战,如生成质量差和计算性能下降等问题,本研究介绍了一种专为俄语设计的开源指令调整大型语言模型 Vikhr,通过适应性分词词汇表、持续预训练和指令调整权重等方法,提高模型性能和计算效率,并在俄语基准测试中取得显著成果。
May, 2024
本研究使用大型语言模型(LLMs)和 InstructCoder 数据集,探索用户指令下的代码编辑,涵盖评论插入、代码优化和代码重构等多个隐含任务。实验证明,在 InstructCoder 数据集上对开源 LLMs 进行精细调整,能够大多数情况下正确地编辑代码,展现了前所未有的代码编辑性能水平。
Oct, 2023
本文介绍了 XATU,这是第一个专门针对细粒度指令的可解释文本编辑的基准,涵盖了广泛的主题和文本类型,并使用高质量的数据源和人工注释,评估了现有大型语言模型在不同编辑任务中的效果,揭示了解释对于文本编辑任务中的语言模型微调的重要作用。
Sep, 2023
大规模语言模型的知识编辑可以提供一种有效的解决方案,以改变模型的行为而不会对整体性能产生负面影响。为了解决当前方法在任务上的有限泛化能力的问题,我们采取了第一步来分析知识编辑中的多任务泛化问题。具体而言,我们开发了一种基于指令的编辑技术,称为 InstructEdit,它通过简单的指令同时促进编辑器对不同任务性能的适应。通过仅使用一个统一的编辑器为每个大规模语言模型,我们经验证明 InstructEdit 可以提高编辑器的控制能力,在多任务编辑设置中可平均提高 14.86%的可靠性。此外,涉及未见任务的实验表明 InstructEdit 始终优于先前的强基准。为了进一步研究基于指令的知识编辑的基本机制,我们分析了编辑梯度方向的主要成分,发现指令可以帮助控制具有更强的无法覆盖的泛化能力的优化方向。代码和数据集将在此 https URL 中提供。
Feb, 2024