BriefGPT.xyz
Ask
alpha
关键词
attention center position-condition generator
搜索结果 - 1
ACQ: 通过关注力校正来提高生成式无数据量化
该论文提出了 ACQ 方法,通过注意力中心位置条件发生器和对手损失等技术,解决了数据合成过程中 attention 分布不均和同一类别合成样本之间注意力过于相似的问题,以提升量化算法的性能。在对 Resnet18 和 Resnet50 进行
→
PDF
a year ago
Prev
Next