思考性解码:利用现成语言模型实现双向生成
利用双向学习的自我反思框架来提高翻译任务、增强模型的自我反思能力并改进翻译表现,特别适用于低资源语言对的翻译任务,大大提高了翻译准确性和消除了歧义。
Jun, 2024
大型语言模型在生成文本时常常不能充分整合输入上下文,过度依赖模型参数中的编码先验知识,导致生成的文本存在事实不一致或上下文不忠实的内容。本研究提出了一种新颖的方法,利用对抗性无关信息作为负样本,通过对比解码来增强生成过程中的强大上下文基础。值得注意的是,我们的方法在推理时不需要额外的训练,并通过全面实验证明了其可行性和有效性,提供了实证证据表明其优于现有方法。
May, 2024
本文提出了一种灵活使用未受监督的逆向传递算法 DeLorean,用于同时结合过去和未来语境进行推理的文本生成和修订任务中,该算法表现优于一系列未受监督和一些受监督的方法。
Oct, 2020
利用动态反思和发散性思维的检索器 - 排序器框架,我们提出了一种新的推理策略,以应对顺序推荐任务中的挑战,通过收集协同行为示例、抽象高级用户偏好和动态反思等方法,增强序列推荐系统的性能。
Dec, 2023
本文研究了基于转移学习的无监督方法生成高质量的同义改写,其中采用了任务自适应、自监督学习和名为 Dynamic Blocking 的新型解码算法。该方法在问答数据集和 ParaNMT 数据集上均取得了最新的性能,并且在不同语言改写中具有良好的迁移性能。
Oct, 2020
零射一上下文学习是一种模型能够根据指令进行任务处理的现象。该研究提出了一种具有衰减因子的反语言模型目标,旨在解决上下文机器翻译的弱点,并在实验中表现出优于其他最先进解码目标的性能。
Nov, 2023
利用自我反思的模型生成语言反馈,METAREFLECTION 技术能够学习特定领域的通用提示指令并提高大型语言模型的效率。在基础设施即代码漏洞检测和问答方面,METAREFLECTION 相对于 GPT-4 表现出 16.82%(IAC)、31.33%(COT)和 15.42%(REACT)的显著改进。
May, 2024
我们提出了一种方法,通过在标记级别交替生成来教授多个大型语言模型(LLM)进行协作。我们将下一个标记由哪个 LLM 生成的决策建模为潜在变量。通过在潜在变量模型下优化训练集的边际似然,基础 LLM 自动学习何时生成自己,并在需要时调用其中一个 `` 助理 '' 语言模型进行生成,无需直接监督。解码过程中的标记级别协作允许以适应特定任务的方式融合每个模型的专长。我们的协作解码在跨领域设置中特别有用,其中广义的基础 LLM 学习调用领域专家模型。在指令遵循、领域特定问答和推理任务中,我们展示了联合系统的性能超过各个模型。通过对学习到的潜在决策进行定性分析,我们展示了使用我们方法训练的模型呈现了几种有趣的协作模式,例如模板填充。我们的代码可在此 URL 找到。
Mar, 2024