BriefGPT.xyz
Ask
alpha
关键词
task transferability
搜索结果 - 5
ICML
$π$-Tuning: 通过最佳多任务插值传递多模式基础模型
本文提出了一种用于视觉,语言和视觉语言任务的通用参数高效的迁移学习方法 Predict-Interpolate Tuning(π-Tuning),它通过学习类似任务的轻量级任务专家的参数来帮助目标下游任务,并在一个统一的无模态空间中预测任务
→
PDF
a year ago
任务迁移学习中可迁移性的信息论方法
本文提出了一个评估跨任务表示学习有效性的 H-score 度量方式,可以对在分类问题中从一个任务传递到另一个任务的表示的性能进行评估。使用实际图像数据进行的实验表明,该评价标准不仅与经验传递度量一致,而且在源模型选择和任务转移课程学习等应用
→
PDF
2 years ago
ACL
探索任务可转移性在大规模多任务学习中的作用
本研究旨在阐明多任务表示学习中任务规模和相关性的影响。研究表明,如果预先知道目标任务,则在较小的一组相关任务上进行训练在降低计算成本的同时也能与大规模多任务训练相竞争。
PDF
2 years ago
ACL
SPoT: 通过软提示传递实现更好的冻结模型调整
本文介绍了一种使用少量参数进行预训练语言模型在下游任务中的应用实现,该方法名为 SPoT:Soft Prompt Transfer,通过学习源任务的 prompt 来初始化目标任务的 prompt,从而提升了 Prompt Tuning 的
→
PDF
3 years ago
ICCV
监督分类任务的可转移性和困难度
本文提出了一种新的方法,通过信息论方法来估计监督分类任务的难度和可转移性,无需模型和训练,而是通过探索训练标签统计数据作为随机变量,考虑从源任务到目标任务的两个标签分配之间的条件熵,表明此值与传输模型的损失有关,并测试其在三个大型数据集上的
→
PDF
5 years ago
Prev
Next