多语言任务导向对话的情境语义解析
本文提出一种多任务编码 - 解码模型,通过多语言领域内语料库和英文 - 逻辑形式对标数据,在没有平行语料的情况下完成跨语言的语义解析,模型加强了语言无关编码,显著优于传统基于翻译的算法,有时能与有监督模型的上线媲美。
Apr, 2021
本论文提出了一种适用于面向任务的对话系统的语义表示形式,该表示形式可以表示诸如共参照和上下文传递等概念,实现了对话过程中的全面理解。此外,更提出了一种新的 Seq2Seq 模型用于基于会话的解析,并在 ATIS、SNIPS、TOP 和 DSTC2 等数据集上获得了更好或相当的性能。
Sep, 2020
通过语义解析将原始对话文本转换为 JSON,使用大型语言模型和更多模块来实现更新策略,提出一种新的上下文学习方法 ParsingDST,通过引入复杂的更新策略改进了零样本对话状态跟踪 (DST),在 MultiWOZ 数据集上优于现有的方法,对比现有的上下文学习方法在联合目标准确性和槽准确性方面有显著的改进。
Oct, 2023
本论文旨在通过语义知识蒸馏来改进多语言语音转文本翻译中的跨语言迁移学习。通过使用 SAMU-XLS-R 来初始化编码器,我们在 CoVoST-2 和 Europarl 语音转文本数据集上实现了比基线模型更好的交叉语言任务知识传输,其中平均提高了 12.8 个 BLEU 分数。在零 - shot 翻译情景下,我们在未见过的中低资源语言上平均提高了 18.8 分和 11.9 个 BLEU 分数。
Jun, 2023
该论文提出了一种在预训练多语言模型之间进行跨语言传递学习的方法,通过中间微调预训练的多语言模型,使其适用于不同但相关的数据和 / 或任务,以提高对话系统的性能。
Sep, 2021
本篇论文介绍了一种基于语言模型的 seq2seq 体系结构,重点介绍了少样本语义解析,并基于非注释数据引入联合训练、有约束的解码、自训练和重新表述这四种技术进行了自动方法来提高语义解析性能。结果表明,该方法在夜间数据集上提供了新的最优结果,并在新的语义解析数据集上提供了非常令人信服的少样本结果。
Apr, 2022
本研究提出了一种新的方法,使用神经机器翻译系统来本地化语义解析器,通过在目标语言自动产生的数据中添加一次辅助的人类翻译,我们训练了一种新的模型,可以通过 QA 系统对多个新的领域和语言进行问答。结果表明,我们的方法比以前的最先进方法在几个测试语言的测试数据集上更为有效,QA 系统可以帮助任何软件开发人员在不到 24 小时内为新领域添加新的语言支持。
Oct, 2020
提出了一种新颖的基于预训练语言模型的任务驱动对话状态追踪方法,利用基于模式的提示和模式描述提高了性能,适用于多个基准测试(MultiWOZ 2.2、MultiWOZ 2.1 和 M2M),实现了最先进的性能。
Sep, 2021
本研究的目的是降低使用新語言創建數據集的成本,並通過提出一種使用機器翻譯和後編輯方法的工具集,實現建立高質量多語言對話代理的目的。
Jun, 2023