利用大型语言模型作为发错流产生器提升发错流检测
通过将自动语音识别系统生成的假设候选项和从音频编码模型提取的声学表示输入到大型语言模型(LLMs)中,我们将多标签异味检测任务作为一种语言建模问题进行了研究,并在包含英语和德语结巴语音的三个数据集上对系统进行了优化,以预测异味标签,实验结果表明我们的系统有效地结合声学和词法信息,在多标签结巴检测任务上取得了有竞争力的结果。
Jun, 2024
提出了一种自动生成大量数据增强指令并选择最适合任务的指令的新解决方案,从而赋予 LLM 创建高质量增强数据用于不同的下游任务的能力。在 26 个少样本学习任务中,该方法一致生成比非 LLM 和基于 LLM 的数据增强方法质量更好的增强数据,表现最佳。
Apr, 2024
本文针对训练数据短缺的问题,提出了使用自监督方法结合无标注数据构建伪训练数据进行预训练,并利用有标注的训练数据进行微调的方法,达到了使用少量数据在英语 Switchboard 数据集上与之前使用全数据进行训练的系统表现相当的结果。使用全数据进行训练时,我们的方法可将误差降低 21%。
Aug, 2019
通过回答三个研究问题,本研究探讨了利用大型语言模型(LLMs)生成的谣言和虚假信息对目前存在的谣言检测技术的影响,以及通过使用 LLMs 作为强大的谣言防御手段以及针对这一威胁的新方法的可能性。
Sep, 2023
本文提出了一种名为 LARD 的方法,该方法可以从流畅的文本中自动生成人工语言障碍,并将上下文嵌入到混淆生成中以产生逼真的上下文感知人工语言障碍,从而绕过标注数据的要求。我们的实验证明 LARD 可以在没有或只有少量数据时有效地使用,并增加了现有混淆检测器的准确性。
Nov, 2022
本文研究了基于 BERT 架构的小型、快速、本地化模型的流畅检测技术,探讨了自我训练、领域自适应和数据增强等方法对性能的影响,发现对这些小型模型来说,这些策略具有更加明显的影响。
Apr, 2021
本文提出一种多任务基于 LSTM 的模型,用于增量检测口吃结构,可以连接到任何组件以进行增量解释,或者在产生当前话语时用于 “清理” 当前话语。我们在 Switchboard 对话行为语料库上训练了该系统,并展示了其在该数据集上的准确性。我们的模型在 SWDA 上比以前的神经网络基于增量的方法表现优异,同时采用较简单的架构。为了测试模型的泛化潜力,我们在没有任何附加训练的情况下,在 bAbI + 数据集上评估了相同的模型。这表明我们的方法具有很好的泛化潜力,并更加详细地阐明了哪些类型的口吃可能适合于领域通用处理。
Oct, 2018
在阅读理解的背景下,我们提出了一种无监督的分心生成框架,利用大型语言模型作为经济高效的注释器来增强较小学生模型的分心生成能力。实验证明,我们提出的无监督生成方法大大超越了 GPT-3.5-turbo 的性能,而参数只有后者的 200 倍少。我们的无监督分心生成方法为实际阅读理解应用提供了一种经济高效的框架,无需费力的分心注释和昂贵的大型模型。
Jun, 2024
本研究探究了大型语言模型(LLMs)进行反事实生成和数据增强的能力,发现 LLMs 很有效的进行反事实生成,但因为自身限制和缺少实用逻辑指导,在某些复杂任务上表现欠佳。提供准确的任务定义和详细的操作步骤对于在 LLMs 中生成反事实具有决定性影响。同时,研究还证明了 LLMs 可能在缺乏合理演示的情况下生成合理的反事实,说明演示主要用于规范输出格式。因此,基于 LLMs 进行数据增强来增强 SLMs 是一种非常有前景的研究和应用方向。
May, 2023
该研究对大型语言模型生成文本的检测技术现状及未来方向进行了综述,并提出了发展全面的评估指标和威胁控制方案等必要措施。关注点包括大型语言模型的开源威胁和其所产生的可能的误传信息问题。
Feb, 2023