本文提出一种域自适应文本风格转移模型,能够处理非平行数据和域偏移问题,并在形式和情感风格的转换任务上取得良好的效果。
Aug, 2019
本文介绍了一种基于元学习框架的任务自适应多对文本样式转换方法,能够同时处理不同任务之间的元知识差异,并成功解决非平衡数据和不匹配领域等普遍挑战。
Jun, 2021
提出了基于元学习的领域自适应对话生成方法(DAML),该方法基于单域对话数据和元学习算法进行训练,并能够在新领域中学习出一种具有竞争力的对话系统。在模拟对话数据集上评估该方法的表现,实现了最先进的性能,该性能可推广到新任务。
Jun, 2019
研究了合成数据对实际数据的转化问题,并提出了基于对抗文本实例对齐与文本自训练的技术来解决领域差异,以提高场景文本检测的性能。
Sep, 2020
本文提出了基于字体的语义转移攻击(TSTA),通过干扰多模态大型语言模型(MLLMs)所捕捉的视觉信息,以在有害词语插入和重要信息保护场景中展现优异性能。
May, 2024
本文提出了一种新的对抗风格挖掘方法,将样式转移模块和任务特定模块相结合,通过对抗学习的方式解决一次样本不足的情况下的领域自适应问题,进而提高了领域自适应性能。
Apr, 2020
提出了一种采用互补损失的生成对抗网络的学习方法,实现带有约束的无监督文本风格转换,通过在潜在空间中进一步规范化,将不同领域中的相似句子加以规约和联系,以保留源和翻译文本之间的词汇、语法和领域特定约束,进而改善了文本转换的质量和数据扩充等应用。
May, 2022
本文提出了一种新的文本样式转换模型,名为 Style MLM,它使用原型编辑方法来构建一种样式屏蔽语言模型任务,通过使用 “可解释的注意力” 来解决样式屏蔽步骤中的位置问题。我们的模型通过与强大的 TST 基线和先进的 TST 模型竞争,展示了其在内容保留环节效果的卓越性。
Oct, 2022
自学习是领域自适应的重要研究线,该论文提出了一种新的自适应框架 DaMSTF,并通过使用元学习、领域对抗学习等方法来减少标签噪声、保留难例,并在跨领域情感分类任务中优化了 BERT 模型性能。
Aug, 2023
本文提出一种使用无监督机器翻译方法来实现自动语言风格转换的方法,利用样式偏好信息和单词嵌入相似性来生成伪平行数据,并采用迭代回译方法来联合训练两个神经机器翻译(NMT)系统,其中引入样式分类器来控制噪声。实验表明,该方法在语言风格转换的精确度和输入输出对应质量方面优于以前的现有模型。
Aug, 2018