Nov, 2023

Legal-HNet:将法律长上下文标记与哈特利变换混合

TL;DR在本文中,我们探讨了用简单的记号混合机制 ——Hartley 和 Fourier 变换替代基于注意力的层的替代方法,并在法律领域设置中从头开始训练模型。我们还介绍了一种新的混合 Seq2Seq 架构,即无注意力的编码器与有注意力的解码器相连,该架构在现有的文摘任务中表现出色,并且计算和内存需求更低。我们相信,采用这些更简单的基础设施可以实现与抽象文本摘要任务中的长相关性类似甚至更好的性能。这不仅使更多人能够从头训练模型,而且还有助于减少训练过程中的碳足迹。