BriefGPT.xyz
Ask
alpha
关键词
pretraining bias
搜索结果 - 2
加强多模式大型语言模型的启动式优化偏好
通过利用歪曲图像输入和在原始回应中注入错误但常见元素的方式,我们提出了一种能够有效抑制预训练 LLM 偏见、提升对视觉输入的基础性的方法 ——Bootstrap Preference Optimization (BPO),通过构建偏好数据集
→
PDF
4 months ago
扩展或缩小表示,控制预训练偏差轻松实现高效迁移学习技术
本文提出改变自监督学习模型中主干神经网络的最后一个块的维度,是解决预训练偏差问题的一种简单有效的方法,并可以提高自监督预训练模型和有监督预训练模型的迁移学习性能。
PDF
a year ago
Prev
Next