Feb, 2024

基于 LLMs 和多路交互的无监督文本风格转换

TL;DR我们研究了结合注意力屏蔽方法和大型语言模型的无监督文本风格转换任务,提出了四种交互方式,包括调整顺序的管线框架、从语言模型到注意力屏蔽模型的知识蒸馏,以及构建并行例子的上下文学习。实验证明这些多向交互能够在风格强度、内容保留和文本流畅度等方面改善基线结果,提高超过其他系统,包括有监督文本风格转换系统的性能。在 Yelp-clean 和 Amazon-clean 数据集上,相对之前最佳度量结果,它们分别提高了 0.5 和 3.0 个绝对百分点,并获得了新的技术水平。