本研究介绍了一种新的 fine-grained 情感改写任务,该任务能够通过平滑变化情感维度,保留原始文本的含义,从而改变带有情感的文本的情感强度。研究者提出了一种情感和情感指导的改写框架,该框架依靠预先训练的语言模型进行文本生成。经过广泛的评估,研究者发现,包含细粒度情感标签的改写任务可以显著提高获得反映期望情感的高质量改写的可能性,同时在改写评估指标(如 BLEU,ROUGE 和 METEOR)方面获得了一致性更好的得分。
Jun, 2023
本文提出了一种用于序列到序列的细粒度情感语音合成的统一模型,通过学习到的排名函数引入音素级情感强度表示来描述本地情感细节,并采用句子级情感类别来呈现合成语音的全局情感。
Nov, 2020
本文提出一种新的多层次转换器模型,将细粒度表示和预训练的话语级别表示相结合,结合不同的方法将音素级别嵌入与单词级别嵌入相结合,从而进行细粒度的多模式情感识别,最终在 IEMOCAP 数据集上,我们的模型均优于之前的最优方法。
Oct, 2022
研究发现,预训练的转换语言模型在很多 NLP 任务上表现出色;然而,这些模型在短语级别的表示中,除了词汇内容外,缺乏复杂的组合短语信息,进一步的 fine-tuning 只能在情感任务中局部提高性能,而在重新释义任务中则由于数据集中可能存在干扰信号的原因而不能提供改进。
May, 2021
该论文提出了一种用于故事细粒度控制的模型,它允许根据个性化指导生成定制故事,实验证明其具有强大的可控性。
本文提出利用大规模无监督语言建模与微调相结合的方法来解决情感多维度分类问题,并在 SemEval2018 Task 1:E-c 上获得竞争力和实际应用价值,成果表明这种方法可以用于真实情感分类任务。
Dec, 2018
本篇论文研究了一种使用深度生成模型(VAE)与序列到序列模型(LSTM)相结合的方法来自动生成给定句子的同义句,相对于现有方法具有更好的性能和简洁的模块化结构。
Sep, 2017
利用释义学习问题表达的多样性来提高询问回答系统在 Freebase 和句子选择上的准确性。通过训练端到端来直接学习最有可能产生正确答案的语言表达,得到了有竞争力的结果。
Aug, 2017
本文提出了一种精细可控的情感语音生成模型,考虑到类间和类内距离,能够产生有较大情感区别的自然语音,实验证明该模型的可控性、情感表现力和自然度均优于两种现有的同类模型。
Mar, 2023
本文介绍了一种使用大型语言模型来进行各种文本主题的改写以及延申到段落级别的重述的技术。该方法表现出了良好的效果,不仅能够对句子进行改写,还能对整段文本进行处理,无需将文本划分为较小的块。
Nov, 2019