英语和印地语中的文本去毒化作为风格转换
本文提出了两种新颖的无监督方法来消除文本中的有害信息,第一种方法结合小型样式条件语言模型的生成过程指导和重新表述模型执行样式转移的想法,第二种方法利用BERT将有害词汇替换为它们的无冒犯同义词,并进行了大规模比较研究,证明这两种方法有效且是新的最佳解决方案。
Sep, 2021
本文使用文本编辑的概念,利用俄语平行语料库,构建两步标记为基础的脱毒模型,实现了最佳的样式转移准确性,并且超过了更大的序列到序列模型。
Apr, 2022
研究多语言和跨语言毒化以及大型多语言模型在该环境中的行为,探讨使大型语言模型能够在给定语言中执行解毒操作而无需直接微调的方法; 实验证明,多语言模型能够执行多语言风格转换,但是模型无法执行跨语言解毒,所以对特定语言进行直接微调是不可避免的。
Jun, 2022
介绍了 MaRCo 算法,该算法采用Product of Experts和自编码语言模型相结合的方式,通过在非有毒和有毒语言模型下评估可能要屏蔽和替换的候选单词,能够有效地解决细微的毒性挑战,即使在人类评估中也要比基线方法更受欢迎,证明了其在解决日益逃避的网络仇恨问题上具有广泛的应用前景。
Dec, 2022
文本去毒化是将文本风格从有毒转化为中性的任务,在单语环境下已有取得良好结果的方法,但在该任务的跨语言转化中仍然存在困难。本工作首次探索了一种新任务,即同时进行文本翻译和去毒化,为该任务提供了几个强基线方法。此外,引入了与人类判断更高相关性的新自动去毒化评估指标,通过人工标记和评估最有希望的方法,确定了文本去毒化知识转移的最佳策略。
Nov, 2023
Detoxification Generator (DETOXIGEN) is an algorithm that controls the attributes of generated text, particularly avoiding toxicity, by using an ensemble of a pre-trained language model and a detoxifier trained on toxic data.
Jan, 2024
文本排毒是一种文本样式转换(TST)任务,其目的是将文本从有毒的表面形式(例如不礼貌的词语)转化为中性语言。本研究将ParaDetox管道扩展到多种语言,提出MultiParaDetox以自动收集潜在任何语言的平行排毒语料库,并通过实验展示平行语料库对获取任何语言的最先进文本排毒模型的巨大益处。
Apr, 2024
提出了基于GPT-3.5 Turbo的GPT-DETOX框架,利用零样本学习和少样本学习技术进行文本排毒,同时使用基于词匹配和上下文匹配的few-shot提示生成方法,并采用集成学习策略,实现了在两个排毒数据集上至少10%的性能改进。
Apr, 2024