Dec, 2023

BiPFT: 使用低秩估计二值化残差多项式的二值先预训练基础 Transformer

TL;DR首次提出了二元预训练基础模型转换器 (BiPFT) 用于自然语言理解任务,极大地节省了计算和内存资源,并通过对二值神经网络 (BNNs) 进行大规模预训练数据驱动的二值化方法,提高了学习能力,具备了 15.4% 优越的综合性能。