BriefGPT.xyz
Ask
alpha
关键词
fine-tuning process
搜索结果 - 4
水印技术使语言模型放射性增强
调查了 LLM 生成的文本的辐射性,即是否可能检测到这种输入被用作训练数据;与成员推断等传统方法相比,我们发现水印训练数据留下的痕迹更容易检测且更可靠;我们将污染程度与水印的鲁棒性、在训练集中所占比例和微调过程联系起来;我们特别证明,即使仅
→
PDF
4 months ago
优化游戏:通用模型的协商和适应
在本研究中,作者提出了一个精细调整过程的模型,其中一名通才将技术产品(即机器学习模型)提升到一定的性能水平,然后一名或多名领域专家将其适应于特定领域的使用。我们为一类相对通用的成本和收益函数条件下,表征了精细调整的博弈问题如何得出一种利润共
→
PDF
a year ago
使用子任务课程学习复杂的团队协作任务
使用专家提供的课程,针对复杂的多智能体任务,通过细化子任务,进行训练,并通过调节学习和探索的超参数,使子团队能够更好地完成更复杂的目标任务,取得了基于从头开始和简单微调技术的多智能体强化学习的更好效果。
PDF
a year ago
COLING
神经语言模型的语言学分析
本文探究了神经语言模型(NLM)在调整细节后所学习到的语言知识及其对于多种分类问题的预测影响,结合多重探测任务发现,尽管 BERT 能够编码多种语言特征,但在特定的下游任务训练后往往导致相关信息丢失,而 BERT 对于不同语言属性的编码能力
→
PDF
4 years ago
Prev
Next