BriefGPT.xyz
Ask
alpha
关键词
long document modeling
搜索结果 - 2
ACL
Hi-Transformer: 高效、有效的长文档建模的分层交互式 Transformer
提出一种称为 Hi-Transformer 的层次交互 Transformer 模型,通过学习每个句子的表示来获取全局文档信息,可以高效、有效地处理长文档建模问题。
PDF
3 years ago
ICML
Poolingformer: 带池化注意力的长文档建模
本文介绍了一种二级注意力模式,Poolingformer,用于长文档建模,其第一级使用较小的滑动窗口模式来聚合周围信息,第二级使用更大的窗口来增加接受场并使用池化注意力来减少计算成本和内存消耗。实验结果表明,Poolingformer 在三
→
PDF
3 years ago
Prev
Next