我们评估了不同的大型语言模型在文本风格转换评估中的性能并提出了输入提示的集成来增加评估的鲁棒性。
Aug, 2023
进行元分析发现 TST 评估在人工和自动化评估方面存在实践上的不一致和显著的标准化和验证差距,提出了要求未来研究满足的需求,以弥补这些差距。
Jun, 2023
本文介绍了 TSST 任务,它是一个新的样式转移 benchmark,强调人类导向的评估,探索和提升当前 LLMs 的性能。
Nov, 2023
该论文系统调查了 100 多篇关于神经文本风格迁移的文章,分析了任务制定,现有数据集和子任务的方法,评估以及并行和非并行数据的方法等方面,并就未来该领域的发展进行了讨论。
Nov, 2020
提出了一种基于文本风格转换的回译方法 (TST BT),它通过文本风格转换模型修改回译数据的源语言侧,以改善自然输入的翻译质量;TST BT 在各种语言对上取得了显著的翻译效果,并被证明是一种有效的领域自适应数据增强方法。
本文提出了一种新的文本样式转换模型,名为 Style MLM,它使用原型编辑方法来构建一种样式屏蔽语言模型任务,通过使用 “可解释的注意力” 来解决样式屏蔽步骤中的位置问题。我们的模型通过与强大的 TST 基线和先进的 TST 模型竞争,展示了其在内容保留环节效果的卓越性。
Oct, 2022
本文介绍了一种新的自动风格转移方法,首先我们学习输入句子的潜在表示,然后使用对抗生成技术来匹配所需的风格,通过在情感、性别和政治倾向上的三种不同风格转换的比较,展示了在风格转移和含义保留流畅性方面的自动评估和人工评估的改进。
Apr, 2018
本文探讨了最近机器学习的几篇主题是关于文本的自动化风格转移的研究,不同的研究者提出了不同的算法、数据集和目标指标来解决这一 NLP 任务,本文致力于讨论这一 NLP 任务的可能形式化,以期进一步增加对它的兴趣。
Aug, 2018
本文旨在通过保留核心内容的同时改变文本的语言风格,重点研究了情感转换这一重要的文本风格转换子任务,涵盖印度语言的广泛范围,包括印地语、马加伊语、马拉雅拉姆语、马拉地语、旁遮普语、奥迪亚语、泰卢固语和乌尔都语;本文介绍了每种语言的正负样式平行句的专门数据集,评估并比较了各种基准模型在平行数据、非平行数据、跨语言学习和共享学习方法中的性能,其中包括 Llama2 和 GPT-3.5 成语语言模型(LLMs);我们的实验突出了平行数据在文本风格转换中的重要性,并展示了掩码风格填充(MSF)方法在非平行技术中的有效性;此外,跨语言和联合多语种学习方法表现出了潜力,为选择适合特定语言和任务要求的最优模型提供了见解;据我们所知,这项工作是首次全面探索以情感转换为代表的文本风格转换任务涉及到多种语言的研究。
May, 2024
本文提出使用对抗网络以学习分离内容表示和风格表示的方法来解决自然语言处理中的样式转移问题,并提出了新的评估指标来测量样式转移的转移强度和内容保留。作者在文章 - 新闻标题转移和正面 - 负面评论转移两个任务上评估了模型和指标,结果表明,所提出的模型的样式转移强度和内容保留得分比自动编码器更高,内容保留度指标与人类判断高度相关。
Nov, 2017