BriefGPT.xyz
大模型
Ask
alpha
关键词
inference speed-up
搜索结果 - 2
ICML
LayerMerge: 神经网络深度压缩通过层修剪和合并
通过共同修剪卷积层和激活函数来提高卷积神经网络的效率,并实现所需的推理加速度,同时尽量减少性能损失。
PDF
16 days ago
基于结构化注意力的上下文演示规模化
提出了一个用于上下文学习的更好的架构设计 SAICL(Structured Attention for In-Context Learning),该架构通过将全注意力替换为专为上下文学习设计的结构化注意力机制,并消除个体示范之间的不必要依赖
→
PDF
a year ago
Prev
Next