该论文提出了一种基于两步 Mask 和 Infill 方法的情感转移模型,用于修改句子情感属性,实验表明对于非平行文本,该模型具有良好的性能。
Aug, 2019
本文提出了一种称为语义文本交换的可度量调整文本语义而仍保持其情感和流畅性的新方法,其对于文本数据扩增和纠错聊天机器人和虚拟助手生成的文本非常有用,提出一种名为 SMERTI 的管道,该管道结合实体替换、相似度掩蔽和文本补充的技术,通过衡量管道的 “语义文本交换得分”(STES)的性能来评估其成功性,同时提出使用掩蔽(替换)率阈值作为可调参数以控制文本中语义变化的程度。实验证明, SMERTI 可以在 Yelp 点评、Amazon 点评和新闻标题等方面优于基准模型。
本文提出了一种新的文本样式转换模型,名为 Style MLM,它使用原型编辑方法来构建一种样式屏蔽语言模型任务,通过使用 “可解释的注意力” 来解决样式屏蔽步骤中的位置问题。我们的模型通过与强大的 TST 基线和先进的 TST 模型竞争,展示了其在内容保留环节效果的卓越性。
Oct, 2022
本研究提出了一种用于减少偏见的文本风格转换模型,它结合了潜在内容编码和明确的关键词替换,可以更好地保存内容并保持良好的风格转移准确性。
Jan, 2022
基于极性感知去噪的情感转换模型,通过在生成文本中准确控制情感属性,以极大程度保留内容,平衡风格和内容之间的权衡,实现了更好的内容保留效果。
Dec, 2023
我们研究了结合注意力屏蔽方法和大型语言模型的无监督文本风格转换任务,提出了四种交互方式,包括调整顺序的管线框架、从语言模型到注意力屏蔽模型的知识蒸馏,以及构建并行例子的上下文学习。实验证明这些多向交互能够在风格强度、内容保留和文本流畅度等方面改善基线结果,提高超过其他系统,包括有监督文本风格转换系统的性能。在 Yelp-clean 和 Amazon-clean 数据集上,相对之前最佳度量结果,它们分别提高了 0.5 和 3.0 个绝对百分点,并获得了新的技术水平。
Feb, 2024
SBAM 通过优先考虑标记的显著性,引入一种新颖且经济高效的方法,显著增强了基于掩膜图像建模的预训练性能,提供了针对每个数据样本的 ' 量身定制 ' 掩膜比例的自适应策略,并在 ImageNet-1K 数据集上显著提升了基于掩膜的预训练的最新方法。
Apr, 2024
通过使用自适应掩码方法,本论文提出了一种用于细粒度语言学问题的方面级情感分析(ABSA)方法,其可以从给定文本中提取多方面的观点和情感,以提高 ABSA 的准确性和 F1 得分。
本文提出了一个基于知识增强的对抗模型(KEAM),采用对抗性的嵌入适配器来提高跨语言传输效果,并采用句法 GCN 编码器以传输显式的语义,并在五个数据集上进行实验,结果显示 KEAM 模型在多个指标上优于传统的无监督方法。
May, 2022
本文提出了一种基于对抗训练和全词掩膜 BERT 的汽车评论情感分析模型,旨在克服汽车领域文本的词汇专业性和噪声问题,提高情感分析模型的准确性。
Jun, 2022