大语言模型对嘈杂指令的弹性
通过对多语种机器翻译模型和大型语言模型在噪声输入情境下的实验研究,我们发现这些模型相比以往模型对各种噪声更加稳健,尤其是在处理干净数据情况下表现相似的情况下。我们还展示了这种趋势在社交媒体翻译实验中同样存在,同时分析了源文本校正技术在减轻噪声影响方面的应用情况。综上所述,我们展示了对于多种类型噪声的稳健性有所增强。
Mar, 2024
通过引入噪声条件器和知识蒸馏方法,我们提出从 N-best 列表中提取语言空间噪声嵌入,以增强噪声鲁棒性和改善识别结果的方法。实验证明该方法在有限的训练数据下,可以获得高达 53.9% 的纠错率改善,表现出强大的语言空间降噪能力。
Jan, 2024
通过将代码风格的指示替代自然语言指示,本文提供了更精确的指示,并增强了大语言模型的鲁棒性。同时,通过使用干净和对抗样本来构建上下文演示,我们进一步提高了大语言模型的鲁棒性。实验结果表明,我们的方法在八个鲁棒性数据集上持续优于自然语言指令的大语言模型。
Feb, 2024
本文旨在探讨将大型语言模型(LLMs)集成到自动语音识别(ASR)系统中以提高转录准确性的潜力,并通过实验表明在当前阶段,使用 LLMs 的上下文学习能力来修正语音识别转录中的潜在错误仍然是一项具有挑战性的任务。
Jul, 2023
通过实验,我们揭示了先进的指令跟踪模型在抵御对抗性指令攻击方面的显著局限性,并且发现了指令调优模型容易过拟合于输入的指令短语而无法真正理解应该遵循哪些指令的问题。这突出了训练模型理解提示而非仅仅遵循指令短语并完成文本的挑战。
Aug, 2023
本文研究了大型语言模型在现实场景中自然语言描述的变化对于代码生成的影响,并提出了一个自动化框架 NLPerturbator 来对不同类别的描述进行扰动,发现扰动后的描述可以显著降低代码生成的性能。研究强调了提高大型语言模型对于现实场景中描述变化的鲁棒性的重要性,以及构建描述时的细致性。
Jun, 2024
使用 LLM(Large Pre-Trained Language Models)评估了在口语任务导向对话中的性能,结果表明 LLMs 默认情况下对口头噪音不够鲁棒,但在正确的口头 TOD 数据集上进行微调 / 训练可以获得更强的性能。
Jan, 2024
利用大型语言模型的自然语言处理是人工智能研究的一个繁荣领域。虽然神经网络已经证明在基于模式识别的游戏和实际领域中可以超越人类,但过度依赖 LLMs 会带来严重的风险,其中包括被用于生产虚假信息。这也引发了新的伦理挑战和各种类型的欺诈。
Feb, 2023