BriefGPT.xyz
Sep, 2021
使用大型预训练神经模型进行文本去毒化
Text Detoxification using Large Pre-trained Neural Models
HTML
PDF
David Dale, Anton Voronov, Daryna Dementieva, Varvara Logacheva, Olga Kozlova...
TL;DR
本文提出了两种新颖的无监督方法来消除文本中的有害信息,第一种方法结合小型样式条件语言模型的生成过程指导和重新表述模型执行样式转移的想法,第二种方法利用BERT将有害词汇替换为它们的无冒犯同义词,并进行了大规模比较研究,证明这两种方法有效且是新的最佳解决方案。
Abstract
We present two novel
unsupervised methods
for eliminating toxicity in text. Our first method combines two recent ideas: (1) guidance of the generation process with small style-conditional language models and (2) use of
→