BriefGPT.xyz
Ask
alpha
关键词
attention bias
搜索结果 - 2
ACL
位于中间:校准位置注意偏差以改进长上下文利用
长文本中,大语言模型存在失效过中间信息的问题,我们通过研究发现这一现象与其内在的注意力偏差有关,而通过中间定位机制可以解决这一问题,并在检索增强生成任务中表现出更好的性能。
PDF
13 days ago
LSAS: 轻量级次级注意机制缓解注意偏向问题
本文研究计算机视觉中深度神经网络由于其特征提取能力,会在图像中关注一些关键的像素区域,但我们通过量化和统计表明,DNN 存在严重的注意偏差问题;通过现有的自注意机制有一定的缓解,但仍然存在偏差,因此我们提出了一个轻量级的 LSAS 策略,通
→
PDF
a year ago
Prev
Next