词重要性解释了提示如何影响语言模型的输出
通过基于梯度下降的方法,测量每个输入词对神经机器翻译输出的影响,从而提高神经机器翻译的可解释性。同时,揭示了语法类别对于神经机器翻译输入词的影响,为多语言翻译的设计原则提供了启示。
Sep, 2019
本研究提出一种基于自然语言推理和释义识别的模型训练方法,通过解释预测模型的预测结果,得到每个输入标记的重要性分数,并可以分析其语法特征,可用于识别训练中没有明确标记的句子中的重要单词。
May, 2023
在这项研究中,我们探究了提示的构建方式对大型语言模型的决策是否产生影响。我们通过一系列针对不同文本分类任务的提示变化进行了实验。研究发现,即使是最小的扰动,如在提示的末尾添加一个空格,都可能导致大型语言模型改变其回答。此外,要求以 XML 格式回应和常用的破解行为可能对大型语言模型标注的数据产生灾难性影响。
Jan, 2024
大语言模型的关键因素在于提示设计对其性能会产生巨大影响,通过许多方面的分析研究,我们发现几种常用开源大语言模型对微妙的提示格式变化具有极高的敏感性,这种敏感性在不断增加模型大小、样本数量或进行指令调整时仍然存在。
Oct, 2023
我们通过大规模实验和分析发现,零 - shot 大语言模型的排名方法的差异不仅来源于排名算法和模型骨干,而且还很重要的来自于提示元素和用词的选择,实际上,我们在实验中发现,这些后者对排名器的有效性产生的影响有时比实际的排名算法更大,而且在考虑到提示的变化时,排名方法之间的差异变得更加模糊。
Jun, 2024
本文的研究目的是探讨文本转图像模型(T2I)如何在生成图像时通过特定的单词体现出种族和性别的偏见,作者通过遮蔽语言模型计算各单词的影响得分,实验结果表明该方法能够用于识别生成图像中的社会刻板印象。
Jun, 2023
本研究提出了一种基于位置 - 注意机制的方法,避免了构造多种不同的提示模板。使用生物医学预训练语言模型,实验结果显示我们的方法能更好地填补掩码,对罕见提示模板的回答(如后缀和混合模式)更为有效。
Mar, 2022