BriefGPT.xyz
Ask
alpha
关键词
in-context few-shot learning
搜索结果 - 4
RAEmoLLM: 基于情感信息的跨领域虚假信息检测的检索增强 LLM
该论文提出了 RAEmoLLM 框架,通过应用情感感知 LLM 构建一个含有情感嵌入的检索数据库,以实现跨领域的虚假信息检测。实验结果显示,RAEmoLLM 较零样本方法在三个数据集上均获得显著提高,其中最高分别提高了 20.69%、23.
→
PDF
20 days ago
语言建模中的跳跃学习
在对大规模过参数化的语言模型进行预训练时,我们提出了一种简单的路由机制,用于为不同的标记分配不同数量的计算量,从而显著改善在上下文少样本学习中的性能。这种方法在 24 个自然语言处理任务上进行了全面评估,证明相对于竞争性基准,该方法能够显著
→
PDF
7 months ago
ACL
大规模语言模型语境学习中预训练语料对效果的影响
研究了韩国中心型 GPT-3 模型 HyperCLOVA 中的上下文零样本和少样本学习,发现性能主要取决于语料库域源和预训练语料库的大小,可以通过组合多个语料库预先训练获得上下文学习能力.
PDF
2 years ago
数据分布特征驱动变压器模型中的上下文学习
研究了 Transformer-based 模型在 in-context few-shot learning 方面的行为和处理方式,发现训练数据的分布特性是这种行为的关键,特别是数据具有大量稀有类别和爆发性分布这两个属性时;而这些属性往往是
→
PDF
2 years ago
Prev
Next