基于生成强化的变压器的指令上下文增强方法
本研究提出了一种基于强化学习算法的语言模型微调方法,通过与动态黑盒引导语言模型(GPT-3)相互作用,比传统监督学习和 PPO 策略优化算法表现更好,尤其在语义和词汇多样性等方面的指标上有改善。
Jun, 2023
通过加上自然语言解释,人工智能模型在各种任务中有了显著提升,但在遇到对抗性输入时,效果下降。本文研究了如何通过加入自然语言解释来提高模型对七个对抗性和具有挑战性的自然语言推理数据集的鲁棒性,并提出了 ChatGPT 的几个人工生成的自然语言解释来产生更多自然语言解释的新方法,表现更好。通过对五种常见的大语言模型进行评估,我们发现 ChatGPT 的几个人工生成的自然语言解释的 X-ICL 方法比 ICL 方法提高了 6% 以上。此外,我们还发现之前能有效提高 ICL 性能的提示选择策略,在鲁棒性评估中并不具有与 X-ICL 范式相称的效果。
Nov, 2023
利用领域特定的质量评估(QE)引导的搜索算法,借助 XGLM 模型,本论文提出了一种新的上下文学习(ICL)方法,以预测机器翻译的质量,选择有效的示例以最大化翻译质量,相较于现有 ICL 方法和预训练语言模型(PLM)mBART-50,实验结果显示了显著的改进和更高的翻译性能。
Jun, 2024
本研究提出了一种有效的、高效的两阶段方法来增强大型语言模型中的上下文学习,该方法利用 Transformer 注意力和梯度下降优化之间的双重形式,将上下文学习过程分为 'Thinking' 和推理阶段,通过递归前向优化演示来增强 LLLs 的推理能力,并且将得到的元梯度通过注意力应用于最终的输出预测中,从而有效地、高效地适应下游任务。
May, 2023
信息抽取是自然语言处理中的基石,传统上被细分为不同的子任务。大型语言模型的出现预示着一种新的范式转变,即单一模型能够解决多个信息抽取子任务。本文引入通用信息抽取大型语言模型(GIELLM),它通过统一的输入输出架构整合了文本分类、情感分析、命名实体识别、关系抽取和事件抽取。这次创新标志着一个模型首次同时处理如此多样的信息抽取子任务。值得注意的是,GIELLM 利用了互相增强效应(MRE),在综合任务中提高了性能,与各自孤立的任务相比。我们的实验证明,在六个日语混合数据集中,我们在五个数据集中取得了最先进的结果,明显超过了 GPT-3.5-Turbo。此外,使用新颖的文本分类关系和事件抽取(TCREE)数据集进行的独立评估证实了 MRE 在文本和词分类中的协同优势。这一突破为大多数信息抽取子任务在一个统一的 LLM 框架下合并提供了可能,不再需要专门的微调任务特定模型。
Nov, 2023
InternLM2 是一种开源的大型语言模型,通过创新的预训练和优化技术,在多个维度和 30 个基准测试中优于之前的模型,并在长文本建模和开放主观评估方面取得突出表现。该模型通过精心设计的预训练过程,使用了包括文本、代码和长文本数据在内的多种数据类型,并具备捕捉长期依赖、高效处理任务的能力。此外,通过释放不同训练阶段和模型大小的 InternLM2 模型,为社区提供了对模型演进的深入理解。
Mar, 2024
提出了一种新的学习范式 —— 提示增强的上下文学习(Hint-enhanced In-Context Learning,HICL),通过从示范中提取与查询相关的知识,以更明确的方式提示大型语言模型(LLM),用于开放域问答,从而提高性能。
Nov, 2023
已有的语言模型微调范式在知识编辑场景下容易出现脆弱性,本文提出了一种名为一致上下文编辑(ICE)的新方法,利用模型的上下文学习能力来调整模型以适应上下文分布而非单一目标,通过直观的优化框架增强了梯度调整方法的鲁棒性和效果,实验证明了 ICE 的优势及其在不断编辑中的潜力,确保了更新的信息被纳入同时保持模型的完整性。
Jun, 2024
在传统的强化学习方法中,基于离线学习的在线策略学习是一种有希望的方法,然而其高昂的计算成本限制了其应用广度。本文提出了一种优化在线策略学习效率的 In-context Exploration-Exploitation (ICEE) 算法,通过在 Transformer 模型中在输入过程中进行探索利用的平衡策略,从而避免了昂贵的显式贝叶斯推断过程,并证明了该算法相比现有方法能以更少的训练时间学习解决新的强化学习任务。
Mar, 2024
本研究介绍了 GPT-RE,这是一种解决大型语言模型在关系提取中局限性的方法,包括任务特定实体表现的使用和黄金标签引导推理逻辑的使用。该方法在四个数据集上的实验结果表明其超过了 GPT-3 基线并且在 Semeval 和 SciERC 数据集上实现了 SOTA 表现。
May, 2023