他说她说:对话视角转换的风格转移
本文提出了一种基于对话样式迁移的 few-shot 学习模型,采用上下文学习的方式解决了对话风格转移中传统方法受限的问题,并且在多轮对话中的人工评估中,模型的话语匹配目标风格且语义正确性和合适性方面表现更好。此外,实验还表明,该模型可用于下游任务 —— 在将训练集的风格转移到测试集的情况下,多领域目标分类任务的 F1 得分有所提高。
Feb, 2023
文本风格转换方法在自然语言处理中越来越受欢迎,允许将文本从有毒到神经、从正式到非正式、从古老到现代英语等形式进行改写。在一些应用中,解决这一任务不仅仅是生成一些神经 / 非正式 / 现代化的文本,更重要的是保持原始内容不变。通过比较各种风格转换模型在正式转换领域的实例,我们对各种风格转换方法的内容保留能力进行了研究。我们创建了一个形式与非正式任务导向的对话的平行数据集,与 GYAFC 等现有数据集的关键区别是包含了必须在改写过程中保留的预定义语义槽,例如命名实体。这个额外的注释允许我们对几种最先进的风格转换技术进行精确的对比研究。我们研究的另一个结果是对无监督方法 LEWIS 进行改进,在所提出的任务中取得了明显的改进,优于原始方法和所有评估的基准方法。
Aug, 2023
介绍了基于大规模数据集 Positive Psychology Frames 的积极转化任务,任务目的是中和消极文本并生成更积极的视角,以保留文本原意。研究评估了一系列现有的文本风格转换模型,并讨论了未来工作的关键问题和方向。
Apr, 2022
本文介绍了一种新的自动风格转移方法,首先我们学习输入句子的潜在表示,然后使用对抗生成技术来匹配所需的风格,通过在情感、性别和政治倾向上的三种不同风格转换的比较,展示了在风格转移和含义保留流畅性方面的自动评估和人工评估的改进。
Apr, 2018
提出了一种基于上下文文本风格转换的新任务和模型,旨在实现高质量的自然上下文保留的风格转换,并通过引入半监督学习等机制,提出了一种用于训练稳健模型的方法,同时介绍了两个新的基准数据,实验结果表明,该模型在准确性、内容保全和上下文一致性等指标上显著优于其他方法。
Apr, 2020
本文通过提出一种全能模型,同时采用平行数据和形式分类数据,以缓解数据稀疏性问题,并在形式转换基准数据集上取得最新的最优表现,发现该模型还可轻松适用于其他无监督文本样式转换任务,如无监督情感转换,并在三个广泛认可的基准测试中取得竞争优势。
Mar, 2019
本文提出了一个名为 StoryTrans 的生成模型,该模型利用话语表示来捕捉源内容信息,并将其与可学习的样式嵌入一起传输到目标样式以解决非并行故事作者样式转换问题,并且使用一个附加的训练目标来解开样式特征,防止模型退化为一个自动编码器,并构建了新的汉英两种语言数据集,实验证明我们的模型在样式转换和内容保护的整体性能方面优于强基线。
Aug, 2022
该论文提出了一种简单的基于预训练语言模型的方法,将非监督风格转移重新规定为句子释义生成问题,本文在人工和自动评估方面显著优于目前最先进的风格转移系统,并发现现有的自动指标可以进行简单地误导,最后通过收集具有 11 种不同风格的大型数据集进一步对该系统进行深入分析。
Oct, 2020
文本样式转换是将文本的样式特征进行转换而保留其含义的任务。我们引入了一种新颖的基于扩散的通用样式转换框架 ParaGuide,它可以在推理时灵活地适应任意目标样式,利用改进的扩散模型,结合来自现成分类器和强大的已有样式嵌入器的梯度引导,以转换文本的样式同时保留语义信息。我们在 Enron Email Corpus 上进行人工和自动评估,发现该方法在正式化、情感以及甚至作者风格转换方面均超越了强大的基准。
Aug, 2023
本文提出基于对比学习的混合对话系统方法,利用多任务融合技术和潜变量模型来解耦多种文本体裁,以减少负面风格传递问题,并通过包含潜变量的样式前缀进一步控制响应生成的样式。实验结果表明该方法在多个对话数据集上达到了最先进的性能。
Dec, 2022