BriefGPT.xyz
Ask
alpha
关键词
context augmentation
搜索结果 - 2
ACL
使用 PLMs 重新审视少样本意图分类:直接微调 vs. 连续预训练
本文针对少样本意图检测任务进行研究,提出一种新的方法,即直接在少量标记数据上对预训练语言模型(PLMs)进行微调,使用上下文增强方法和序列自蒸馏技术进一步优化性能。实验表明,该方法优于许多强基线方法,甚至是在只有每类两个或更多标记样本的情况
→
PDF
a year ago
MTLDesc: 扩大视野,提升描述能力
通过采用上下文增强和空间注意机制,本文提出了一种可获得非局部感知的本地描述符方法,并在诸如 HPatches,Aachen Day-Night 定位和 InLoc 室内定位基准测试中,显著超越了先前的最先进本地描述符。
PDF
2 years ago
Prev
Next