BriefGPT.xyz
大模型
Ask
alpha
关键词
zero-shot models
搜索结果 - 6
OTTER: 通过最优传输提高零 - shot 分类
零样本模型在预训练时遗传了一些问题,其中一个特别有害的问题是由于不平衡的网络规模预训练数据导致的标签分布不匹配。我们引入了一种简单且轻量级的方法,通过最优传输来调整预训练模型的预测结果,在广泛的零样本图像和文本分类任务中实验证实了我们的方法
→
PDF
3 months ago
关于大型音视频语言模型中的音频幻觉
通过分析大型音视频语言模型中的音频幻觉,本文收集了包含幻觉的 1,000 个句子,并通过预训练的音频文本模型以零样本和微调的方式进行音频幻觉分类任务,结果显示零样本模型表现更好 (52.2% F1),优于随机模型 (40.3%),微调模型表
→
PDF
6 months ago
预训练模型的几何感知自适应
我们提出了一种简单的方法,利用标签空间的度量信息通过替换传统的预测规则中的 argmax 来适应已训练好的模型以可靠地预测新类别,或者在零样本预测中提高性能,而无需额外的训练。我们对该方法进行了全面的理论分析,研究了学习理论结果、标签空间直
→
PDF
a year ago
Sample-Efficient NLP 模型更加鲁棒吗?
本篇研究发现,虽然预训练模型具有更高的非分布式鲁棒性,但当零样本模型在更多的领域内数据进行精细调节时,其鲁棒性增益会逐渐减弱,因此该研究关注了不同模型的样本效率与鲁棒性之间的关系,并在案例分析中发现,获得更好的样本效率可能会带来更高的鲁棒性
→
PDF
2 years ago
零次和少样本学习用于作者分析
本文从低资源的角度研究作者特征分类,在西班牙语和英语中尝试了不同的零样本和少样本模型,发现基于蕴涵的模型优于基于 roberta-XLM 的监督文本分类器, 并且使用少于 50% 的训练数据平均可以达到先前方法准确率的 80% 以上。
PDF
2 years ago
声音防御:语音转换的对抗攻击
论文报告了首次对语音转换进行对抗性攻击的尝试,以保护用户的隐私和身份识别。在两个现有的零样本语音转换模型上进行了实验,显示攻击样本具有良好的隐蔽性和转换效果显著。
PDF
4 years ago
Prev
Next