利用双向学习的自我反思框架来提高翻译任务、增强模型的自我反思能力并改进翻译表现,特别适用于低资源语言对的翻译任务,大大提高了翻译准确性和消除了歧义。
Jun, 2024
使用大型语言模型的自我纠正翻译框架 TER,在不同语言、高资源和低资源语言之间实现了大幅度的翻译质量提升,并比较了不同的模型和估计策略对翻译质量的影响,同时探究了语言模型的评估能力与翻译质量之间的潜在关系。
Feb, 2024
通过比较示例教授大型语言模型(LLMs)学习翻译,提出了一种新颖的框架,使用偏好损失引导模型学习,实验结果表明该方法胜过现有方法,为生成高质量的翻译提供了一个有希望的解决方案。
Jul, 2023
通过反思调整指令的判断能力,本研究提出了一种名为 “reflection-tuning” 的新方法,利用 Oracle LLM 自省和提高数据中指令和回应的质量来优化大型语言模型(LLMs),在广泛使用的评估基准上的实验证明,我们用反思调整后的数据训练的 LLMs 在各种测评中表现优于使用现有数据集训练的模型。
Oct, 2023
利用自我反思的模型生成语言反馈,METAREFLECTION 技术能够学习特定领域的通用提示指令并提高大型语言模型的效率。在基础设施即代码漏洞检测和问答方面,METAREFLECTION 相对于 GPT-4 表现出 16.82%(IAC)、31.33%(COT)和 15.42%(REACT)的显著改进。
May, 2024
通过两阶段微调算法,改进了大型语言模型(LLMs)遵循翻译指示的能力,特别是翻译方向信息,从而有效降低了错位翻译比率(平均降低 53.3%),提高了翻译质量(平均增加 5.7 SacreBLEU 和 16.4 BLEURT)。
Mar, 2024
利用翻译记忆作为提示是一种有前途的机器翻译模型上下文学习方法,本文通过使用大型语言模型进行提示,发现 LLM 的‘理解’提示的能力确实有助于更好地利用 TMs,并通过实验证明,使用高质量的 TM 提示可以大大改善预先训练的 LLM 翻译器的结果,甚至可以与最新状态下大规模领域内双语数据和针对下游任务进行调整的 NMT 系统的结果相媲美。
May, 2023
通过在语言模型中建立语义对齐,该研究提出了一种在英语以外的语言中增强指令调整型大型语言模型(It-LLMs)的方法,通过交叉语言指导和翻译指导演示,提高语义对齐,并在六种不同语言上的多语言问答基准测试中验证其方法的效果。
Aug, 2023
通过自学习的方式,引入 Self-Tuning 学习框架以提高大型语言模型的新知识获取能力,通过加强文档的自监督任务,着重在记忆、理解和自反思三个关键方面,实现从原始文档中高效获取新知识,通过三个数据集进行对知识获取能力的深入分析,实验证明 Self-Tuning 在所有知识获取任务上保持出色的性能,并擅长保留先前的知识。
通过使用大型语言模型进行自我对话的方法可以改进对话质量并生成用于训练的自我对话数据集。
Jan, 2024