使用遮罩语言建模进行偏见缓解的文本风格转换
本文提出了两种新颖的无监督方法来消除文本中的有害信息,第一种方法结合小型样式条件语言模型的生成过程指导和重新表述模型执行样式转移的想法,第二种方法利用 BERT 将有害词汇替换为它们的无冒犯同义词,并进行了大规模比较研究,证明这两种方法有效且是新的最佳解决方案。
Sep, 2021
本文旨在量化并减少语言模型中表现出的情感偏见,该文分析了在给定的条件下(例如写作提示)和语言模型中,引起生成的文本情感发生变化的敏感属性(例如国家名称,职业,性别)的值变化的影响。我们采用公平机器学习文献中的个体和团体公正度量来量化情感偏见,并证明在两种不同的语料库(新闻文章和维基百科)上训练的大规模模型存在相当高的偏见。我们随后提出使用嵌入和情感预测导出的正则化方法,该方法应用于语言模型的潜在表示。该正则化提高了公正度量,同时保持了可比水平的困惑度和语义相似性。
Nov, 2019
本文提出了一种简单且无需训练数据的方法,通过多语言反向翻译来有效降低作者个人信息暴露的风险,以达到提高隐私性的目的,而无需牺牲数据的后续实用价值。在自动和人类评估中,与五种最具代表性的文本风格转换模型相比,我们的模型在不同领域的三个数据集上取得了最佳的整体表现,能够将性别和种族的对抗预测降低高达 22%,同时保留 95%的原始实用性。
Sep, 2021
本文提出了一种新的文本样式转换模型,名为 Style MLM,它使用原型编辑方法来构建一种样式屏蔽语言模型任务,通过使用 “可解释的注意力” 来解决样式屏蔽步骤中的位置问题。我们的模型通过与强大的 TST 基线和先进的 TST 模型竞争,展示了其在内容保留环节效果的卓越性。
Oct, 2022
为了提高语言模型的公正性,本文提出了多项定义并给出了新的测试和度量方式,旨在减少机器学习在文本生成过程中对性别、种族、语言宗教等社会构建的刻板印象所带来的负面影响。实证结果和人工评估表明,该方法能够在文本生成中减少偏见同时保留重要的上下文信息。
Jun, 2021
本文提出了一种基于结构化细粒度监督的内容保留模型,利用语言信息并设定模型目标以达到在改变句子的风格的同时更好地保留与风格无关的内容,进行情感和政治倾向转换任务的实验表明该模型在内容保留和风格转换上表现出显著改善。
Oct, 2018
本研究介绍了复杂文本风格转换任务的概念,并基于两个广泛适用的场景构建了复杂文本数据集。我们的数据集是这一类别的首个大规模数据集,包含 700 条改写句子和 1000 条《原神》游戏中的句子。虽然大型语言模型(LLM)在复杂文本风格转换中显示出了潜力,但存在数据隐私问题、网络不稳定性和高部署成本等缺点。为了解决这些问题,我们通过对比学习探索了小型模型(小于 T5-3B)通过隐式风格预训练的有效性。我们还提出了一种基于与人类评估对齐的文本生成质量自动评估方法,使用 ChatGPT。最后,我们将我们的方法与现有方法进行了比较,并展示了我们的模型在少样本文本风格转换模型方面达到了 state-of-art 的性能。
Sep, 2023
本文提出一种控制文本数据中多种因素变异的模型,用回译机制代替对解缠缠绕的限制,实现对性别、情感、产品类型等多个属性的控制,并通过在潜空间中的池化运算使内容保留和风格变化之间的权衡更加精细,进一步拓展了去耦合框架的应用范围。
Nov, 2018
本文的研究目的是探讨文本转图像模型(T2I)如何在生成图像时通过特定的单词体现出种族和性别的偏见,作者通过遮蔽语言模型计算各单词的影响得分,实验结果表明该方法能够用于识别生成图像中的社会刻板印象。
Jun, 2023