混合对话系统中消减负面风格转移
本研究介绍了复杂文本风格转换任务的概念,并基于两个广泛适用的场景构建了复杂文本数据集。我们的数据集是这一类别的首个大规模数据集,包含 700 条改写句子和 1000 条《原神》游戏中的句子。虽然大型语言模型(LLM)在复杂文本风格转换中显示出了潜力,但存在数据隐私问题、网络不稳定性和高部署成本等缺点。为了解决这些问题,我们通过对比学习探索了小型模型(小于 T5-3B)通过隐式风格预训练的有效性。我们还提出了一种基于与人类评估对齐的文本生成质量自动评估方法,使用 ChatGPT。最后,我们将我们的方法与现有方法进行了比较,并展示了我们的模型在少样本文本风格转换模型方面达到了 state-of-art 的性能。
Sep, 2023
本文介绍了使用独立获取的数据来控制多种风格的方法,旨在解决现有方法中需要联合注释所有风格维度的共同缺点,通过与现有技术的比较,我们的模型能够保留输入文本的内容,同时控制多个风格维度。
Oct, 2020
本文提出了一种基于对话样式迁移的 few-shot 学习模型,采用上下文学习的方式解决了对话风格转移中传统方法受限的问题,并且在多轮对话中的人工评估中,模型的话语匹配目标风格且语义正确性和合适性方面表现更好。此外,实验还表明,该模型可用于下游任务 —— 在将训练集的风格转移到测试集的情况下,多领域目标分类任务的 F1 得分有所提高。
Feb, 2023
本文提出一种控制文本数据中多种因素变异的模型,用回译机制代替对解缠缠绕的限制,实现对性别、情感、产品类型等多个属性的控制,并通过在潜空间中的池化运算使内容保留和风格变化之间的权衡更加精细,进一步拓展了去耦合框架的应用范围。
Nov, 2018
本文提出了一种基于对比学习范式的新型文本风格转换模型,通过明确收集相似语义句子和设计基于孪生模型的风格分类器,以解决文本样式转换中的内容迁移和样式歧义等问题。针对这些问题,实验结果表明,该模型比现有技术更加有效。
Jan, 2022
本文探讨了自然语言生成在任务导向对话中的应用,提出了三种序列到序列模型,并考虑如何实现内容和风格的分离,通过控制 36 个风格参数,实现对语义和风格的高度还原。
May, 2018
本文提出一种迁移学习框架,通过更新模型参数的 0.3%来学习响应生成的特定风格属性,解决了在话务系统中保持一致的人物形象和风格的问题。研究表明,个性是改善会话系统参与度和用户体验的关键驱动因素。同时,本研究通过在 ROC 故事语料库中研究风格故事结尾生成问题,从 PERSONALITY-CAPTIONS 数据集中学习风格特定属性,并通过大量实验和评估表明,该新颖的训练方法可以提高风格生成的效果。
Oct, 2022
本文提出使用对抗网络以学习分离内容表示和风格表示的方法来解决自然语言处理中的样式转移问题,并提出了新的评估指标来测量样式转移的转移强度和内容保留。作者在文章 - 新闻标题转移和正面 - 负面评论转移两个任务上评估了模型和指标,结果表明,所提出的模型的样式转移强度和内容保留得分比自动编码器更高,内容保留度指标与人类判断高度相关。
Nov, 2017
提出了一种采用互补损失的生成对抗网络的学习方法,实现带有约束的无监督文本风格转换,通过在潜在空间中进一步规范化,将不同领域中的相似句子加以规约和联系,以保留源和翻译文本之间的词汇、语法和领域特定约束,进而改善了文本转换的质量和数据扩充等应用。
May, 2022
文本风格转换方法在自然语言处理中越来越受欢迎,允许将文本从有毒到神经、从正式到非正式、从古老到现代英语等形式进行改写。在一些应用中,解决这一任务不仅仅是生成一些神经 / 非正式 / 现代化的文本,更重要的是保持原始内容不变。通过比较各种风格转换模型在正式转换领域的实例,我们对各种风格转换方法的内容保留能力进行了研究。我们创建了一个形式与非正式任务导向的对话的平行数据集,与 GYAFC 等现有数据集的关键区别是包含了必须在改写过程中保留的预定义语义槽,例如命名实体。这个额外的注释允许我们对几种最先进的风格转换技术进行精确的对比研究。我们研究的另一个结果是对无监督方法 LEWIS 进行改进,在所提出的任务中取得了明显的改进,优于原始方法和所有评估的基准方法。
Aug, 2023