BriefGPT.xyz
大模型
Ask
alpha
关键词
unsupervised fine-tuning
搜索结果 - 5
解决因果语言模型中上下文示例的顺序敏感性问题
我们提出了一种无监督的微调方法,称为信息增强和一致性增强方法,以减少在背景上下文示例的顺序敏感性,并展示出强大的泛化能力,特别是当演示示例来源于与训练阶段不同的池,或者当背景上下文示例数量与训练期间使用的数量不同时。
PDF
4 months ago
朝着具有 CLIP 的逼真无监督微调
通过将视觉语言模型 (VLMs) 应用于下游监督学习任务,本文探讨了无监督微调 CLIP 模型,解决了未知类别的样本和识别预定义类别实例的问题,并提出了一种称为通用熵优化 (UEO) 的简单有效的微调方法。通过广泛的实验,我们证明了 UEO
→
PDF
10 months ago
ICML
POUF: 面向提示的无监督微调大规模预训练模型
本研究提出一种无监督的精调框架,用于快速和直接地向未标记的目标数据进行深度学习模型的预训练,并在图像分类、情感分析和自然语言推理任务中实现了持续的改进。
PDF
a year ago
多假设 RNN-T 损失函数用于神经传输器的无监督微调和自学习
本文提出了一种新的方法,利用未标记的语音数据对递归神经网络转录器端对端自动语音识别系统进行无监督的微调和自我训练,其中包括引入多重假设 RNN-T 损失以缓解 ASR 错误对无标记数据的影响,并在 Librispeech,Wall Stre
→
PDF
2 years ago
超声弹性成像中光流卷积神经网络的半监督训练
本研究提出了一种无监督微调方法,利用大量未标记的数据集对 CNN 光流网络微调,在超声弹性成像中的应用,可以在降低计算机视觉数据库训练的网络生成的伪影的同时,显着提高网络性能。
PDF
4 years ago
Prev
Next