低资源多语言环境下的小样本可控风格转移
该研究论文介绍了一种利用内容和风格潜在表示进行语言风格转换的方法,并证明了该模型在餐厅评论情感修改、浪漫风格对话回复和莎士比亚风格语句重写等三种任务中具有有效性。
Aug, 2018
本文提出一种使用无监督机器翻译方法来实现自动语言风格转换的方法,利用样式偏好信息和单词嵌入相似性来生成伪平行数据,并采用迭代回译方法来联合训练两个神经机器翻译(NMT)系统,其中引入样式分类器来控制噪声。实验表明,该方法在语言风格转换的精确度和输入输出对应质量方面优于以前的现有模型。
Aug, 2018
该论文提出了一种简单的基于预训练语言模型的方法,将非监督风格转移重新规定为句子释义生成问题,本文在人工和自动评估方面显著优于目前最先进的风格转移系统,并发现现有的自动指标可以进行简单地误导,最后通过收集具有 11 种不同风格的大型数据集进一步对该系统进行深入分析。
Oct, 2020
本文介绍了一种新的自动风格转移方法,首先我们学习输入句子的潜在表示,然后使用对抗生成技术来匹配所需的风格,通过在情感、性别和政治倾向上的三种不同风格转换的比较,展示了在风格转移和含义保留流畅性方面的自动评估和人工评估的改进。
Apr, 2018
本文提出了一种基于对话样式迁移的 few-shot 学习模型,采用上下文学习的方式解决了对话风格转移中传统方法受限的问题,并且在多轮对话中的人工评估中,模型的话语匹配目标风格且语义正确性和合适性方面表现更好。此外,实验还表明,该模型可用于下游任务 —— 在将训练集的风格转移到测试集的情况下,多领域目标分类任务的 F1 得分有所提高。
Feb, 2023
本文提出了一种简单且无需训练数据的方法,通过多语言反向翻译来有效降低作者个人信息暴露的风险,以达到提高隐私性的目的,而无需牺牲数据的后续实用价值。在自动和人类评估中,与五种最具代表性的文本风格转换模型相比,我们的模型在不同领域的三个数据集上取得了最佳的整体表现,能够将性别和种族的对抗预测降低高达 22%,同时保留 95%的原始实用性。
Sep, 2021
文本风格转换方法在自然语言处理中越来越受欢迎,允许将文本从有毒到神经、从正式到非正式、从古老到现代英语等形式进行改写。在一些应用中,解决这一任务不仅仅是生成一些神经 / 非正式 / 现代化的文本,更重要的是保持原始内容不变。通过比较各种风格转换模型在正式转换领域的实例,我们对各种风格转换方法的内容保留能力进行了研究。我们创建了一个形式与非正式任务导向的对话的平行数据集,与 GYAFC 等现有数据集的关键区别是包含了必须在改写过程中保留的预定义语义槽,例如命名实体。这个额外的注释允许我们对几种最先进的风格转换技术进行精确的对比研究。我们研究的另一个结果是对无监督方法 LEWIS 进行改进,在所提出的任务中取得了明显的改进,优于原始方法和所有评估的基准方法。
Aug, 2023
TinyStyler 是一种轻量但高效的文本风格转换方法,利用小语言模型和预训练的作者嵌入来进行有效的少样本文本风格转换,表现优于 GPT-4,并在自动和人工评估中超过最近的可控文本生成方法。
Jun, 2024
本研究利用强化学习生成评估器结构,使用基于注意力的编码 - 解码器转换源风格的句子至目标风格,并进行了语义和句法限制的对抗训练风格鉴别器,成功实现了无平行训练语料库的文本风格转移,并在两种不同的风格转移任务(情感转移和形式转移)中取得了优于现有方法的结果,并进一步进行了手动评估,证明了所提出方法在生成文本质量方面的有效性。
Mar, 2019