从分类到生成:跨语言检索增强 ICL 的见解
本研究分析了在跨语言文本分类中使用 in-context learning 的问题,并提出了一种称为 Cross-lingual In-context Source-Target Alignment (X-InSTA) 的 prompt 构建策略,该策略在 44 个不同的跨语言数据集上表现出了很好的性能。
May, 2023
通过跨语言检索增强的方法,我们的研究论文提出了一种创新的方法,利用高资源语言中语义相似的提示来提高多语言预训练语言模型在孟加拉语任务上的性能。详细评估表明,跨语言检索增强的提示对于多语言预训练语言模型的性能有稳定的提升作用。
Nov, 2023
通过对三个文本分类任务的广泛实验,我们发现在选择演示示例时,不仅选择语义上相似的演示示例有益,还选择那些有助于解决测试示例周围固有标签模糊性的演示示例。有趣的是,我们发现包括之前被 LLM 错误分类并且与测试示例的决策边界相近的演示示例能够带来最大的性能提升。
Sep, 2023
本研究表明,在语义上相似的演示可以提高大型语言模型的性能,这可以通过呈现一些示范来完成,并且可以有效地对大量语言和任务进行泛化,同时,我们还引入了任务特定的演示检索器,以进一步提高性能。
May, 2023
通过询问对齐方式的另一种选择,全面研究了一致性学习(ICL)及其跨语言变体(X-ICL)对于 25 种低资源和 7 种相对较高资源的语言的有效性,发现了标签对齐的不足,并提供了有价值的洞察力,强调了提升低资源语言的理解能力的重要性。
Mar, 2024
提出了一种新的学习范式 —— 提示增强的上下文学习(Hint-enhanced In-Context Learning,HICL),通过从示范中提取与查询相关的知识,以更明确的方式提示大型语言模型(LLM),用于开放域问答,从而提高性能。
Nov, 2023
我们提出了一种新的具有多模态输出功能的视觉理解的上下文学习框架,通过将文本和视觉提示量化和嵌入到统一的表示空间中,并采用仅具有解码器的稀疏 Transformer 架构在其上执行生成建模。实验结果表明,我们的模型在统一的多模态管线中实现了与专门模型和先前上下文学习基准模型相竞争的性能。总体而言,我们的研究在统一多模态上下文学习方面迈出了进一步的一步。
Dec, 2023
该研究论文探讨了大型语言模型 (LLMs) 是否能够根据不同任务示例的上下文信号来解决新任务,并设计了一个跨任务提示设置,并表明 LLMs 在无需上下文提示的情况下能够获得显著的性能提升,同时展示了模型激活相似性与跨任务示例效果之间的强相关性。
May, 2024
通过对一些最先进的 VLM(Visual Language Model)进行分析,我们发现它们在执行 ICL(In-Context Learning)指令时存在一定的不足。为了验证这个猜想,我们提出了一种简单但令人惊讶地有效的策略,通过扩展一个常见的 VLM 对齐框架,实现 ICL 支持、方法和课程设置。我们探讨、分析并提供了对有效数据混合的见解,从而显著提升了 21.03% 的 ICL 表现(平均 11.3%),超过了最强 VLM 基线和多种 ICL 基准,并为 VLM 的 ICL 评估贡献了新的基准,并讨论了它们相对于现有技术的优势。
Mar, 2024
语言模型特别是预训练大型语言模型,在上下文少例学习方面表现出非凡的能力,能够在输入上下文中仅通过几个示例适应新任务。最近的一个发展是使用对每个输入查询量身定制的示例进行检索,这不仅提高了学习过程的效率和可伸缩性,还能减少手动示例选择中固有的偏差。基于鼓舞人心的结果和对检索式少例学习领域日益增长的研究,我们对该领域的研究进行了广泛的概述回顾,在此调查中,我们讨论并比较了检索模型、检索训练程序和推理算法的不同设计选择。
Jan, 2024