AAAIJan, 2024
破解 Transformer 模型:任务特定的上下文归因承诺在不进行预训练 LLM 微调的情况下提供改进的泛化能力
Breaking Free Transformer Models: Task-specific Context Attribution Promises Improved Generalizability Without Fine-tuning Pre-trained LLMs
Stepan Tytarenko, Mohammad Ruhul Amin
TL;DR本研究提出了一种使用任务特定的上下文归因来维持模型的泛化能力并提高下游任务性能的框架。在实验证实中,该模型在三个数据集上展示了卓越的准确性和泛化性能。