Aug, 2024

朝向韧性和高效的大型语言模型:效率、性能与对抗鲁棒性比较研究

TL;DR本研究解决了大型语言模型(LLMs)在效率和对抗鲁棒性之间的权衡问题,通过设计一个框架比较三种复杂性和效率不同的模型。研究发现,尽管Gated Linear Attention Transformer和MatMul-Free LM在GLUE任务上准确率稍低,但在AdvGLUE任务中展示了更高的效率和鲁棒性,揭示了简化架构在资源有限且对抗攻击环境中具有良好平衡的潜力。