LAD: 以语言模型为数据的零 - shot 对话
这篇论文提出了一种新的 LaDA 模型,在跨语言自适应的语音理解系统中使用潜在对话动作层来优化解码策略,以提高对复杂多语言意图和槽值的处理能力,并在零样本和少样本适应方面取得了最先进的结果。
Aug, 2023
LaMDA 是一种专门用于对话的基于 Transformer 的神经语言模型,其具有高达 137B 的参数,并使用公共对话数据和 Web 文本预训练。它具有先进的优化技术,能够解决安全性和事实基础等关键挑战,以及能够在教育和内容推荐领域发挥积极作用。
Jan, 2022
评估了 OpenAI 的 GPT-3.5 作为一种 “语言数据科学家”(LDS) 的能力,通过评估其在多个标准上的性能,包括与诸如 NumPy、Pandas、Scikit-Learn 和 TensorFlow 等库相关的数据科学代码生成任务,证明了利用大型语言模型进行低级、零样本数据分析的巨大潜力。
Mar, 2024
本文介绍了两种使用 LLaMA 的零样本 ASR 领域适应方法,这两种方法可以通过一个领域特定的文本提示有效地减少跨领域 TedLium-2 和 SPGISpeech 数据集上的词错误率(WER),特别是,深度 LLM-fusion 具有更好的实体召回和词汇外单词的召回优势。
Jun, 2023
介绍了一个利用 GPT-4V(视觉)的自动化音频描述生成流程,通过使用现成组件实现,不需要额外训练,生成符合自然语言音频描述生产标准的音频描述,同时通过基于跟踪的字符识别模块在帧间保持上下文一致的角色信息,在 MAD 数据集上表现与基于学习的方法相当,CIDEr 得分为 20.5。
May, 2024
通过模块化和高度自动化的 LUCID 系统,我们产生了一个包含 4,277 个跨 100 个意图的多领域、多意图对话的种子数据集,其中包含了各种具有挑战性的现象和多样的用户行为。
Mar, 2024
本文针对零资源的多语言任务导向对话系统进行零样本自适应的提出,使用极少量的平行语词来优化对齐的跨语言词级表示,并采用潜变量模型处理不同语言间类似句子的变化,实验表明,我们的模型在零样本情况下对自然语言理解任务的适应性优于当前最先进的模型。
Nov, 2019
本研究提出一种基于 Zero-Shot Adaptive Transfer 方法的领域自适应对话代理模型,通过利用槽位描述信息实现可重用概念在领域之间的迁移,并避免了显式概念对齐的训练复杂度,实验结果表明此模型在多达 10 个领域的数据集上性能显著优于之前的最优系统,特别在低数据情况下表现更出色。
Aug, 2018
利用 LLaDA 工具,我们通过适应新地点的交通规则,使人工驾驶员和自动驾驶车辆能够在任何地方行车。LLaDA 利用大型语言模型对当地的驾驶手册进行解释,从而实现零样本泛化能力,解决了自动驾驶中长期存在的问题,并在实际数据集上展示了适应自动驾驶车辆运动规划策略的能力。
Feb, 2024