Dec, 2023
BiPFT: 使用低秩估计二值化残差多项式的二值先预训练基础 Transformer
BiPFT: Binary Pre-trained Foundation Transformer with Low-rank Estimation of Binarization Residual Polynomials
Xingrun Xing, Li Du, Xinyuan Wang, Xianlin Zeng, Yequan Wang...
TL;DR首次提出了二元预训练基础模型转换器 (BiPFT) 用于自然语言理解任务,极大地节省了计算和内存资源,并通过对二值神经网络 (BNNs) 进行大规模预训练数据驱动的二值化方法,提高了学习能力,具备了 15.4% 优越的综合性能。