关键词natural language generation tasks
搜索结果 - 3
- 用户级别差分隐私用于语言模型微调
对自然语言生成任务中使用大型语言模型进行用户级差分隐私保护的设计选择进行系统评估,重点研究两种实现用户级差分隐私保证的机制,即群体隐私和用户级 DP-SGD,包括数据选择策略和参数调优,以实现最佳的隐私 - 效用平衡。
- EMNLP将方面类别情感分析作为一个文本生成任务来解决
本文提出了一种通过将 ACSA 任务转化为自然语言生成任务,使得预训练语言模型可以更直接地应用于该任务设置,从而提高了在各种评估任务中的准确性,特别是在几次学习和零次学习设置下具有显著的优势。
- Prefix-Tuning: 优化连续提示用于生成任务
本文提出字首调整 (prefix-tuning),来解决专用模型使用全量预训练语言模型的空间问题,自动学习小、定制化的向量。通过应用于自然语言生成和文本总结,仅使用 0.1% 的参数即能达到很好的性能。