BriefGPT.xyz
大模型
Ask
alpha
关键词
fine-tuning procedure
搜索结果 - 5
使用大型语言模型的差分隐私表格数据合成
使用预训练的大型语言模型(LLMs),DP-LLMTGen 引入了一种新的框架来进行差分私有表格数据合成,通过微调过程模拟敏感数据集并生成多样的合成数据,有效地解决了实际挑战。
PDF
a month ago
一种用于时间序列的监督对比学习预训练 - 微调方法
引入一种新的预训练程序,利用有监督对比学习来区分每个预训练数据集中的特征,进而通过将目标数据与预训练数据集的学习动态更加紧密地对齐,以提高目标数据的准确预测。
PDF
7 months ago
通过调整输入空间来使用预训练的骨干网络进行持续学习
本文提出了一种用于解决深度学习模型在不稳定环境下适应性差的问题的新方法,通过避免更新网络的预训练部分,同时学习一组新的可学习参数来改善细调过程的效果,以使网络在保证适应性和稳定性之间达到平衡,得到了不错的实验结果,适用于实时场景下的持续学习
→
PDF
a year ago
一种基于刻板印象内容模型的强健偏见缓解程序
本文证明了在语境化的词嵌入中,刻板印象内容模型可以得到保持,然后使用这些结果来评估一种旨在将语言模型从对少数群体的刻板印象描绘中远离的微调过程,进一步证明了 SCM 术语能够更好地捕捉偏见,通过一种简单的微调过程,可以减少模型中成见的存在,
→
PDF
2 years ago
层级 Transformer 用于长文档分类
该研究介绍了如何通过引入基于循环层或其他 Transformer 的单输出层对长文本进行 BERT 模型的微调,成功将其应用于客户电话满意度预测和话题分类任务中,并在两个任务中取得了显著的改进。
PDF
5 years ago
Prev
Next