BriefGPT.xyz
Ask
alpha
关键词
robust tuning
搜索结果 - 1
并非所有的关注点都是您所需要的
本文提出一种名为 AttendOut 的新的 dropout 方法,旨在让基于自注意力的 PrLMs 具备更加鲁棒的任务特定调整能力,从而实现更强的性能表现。通过在多项自然语言处理任务中的验证,证明了该方法的普适性。
PDF
3 years ago
Prev
Next