Recent developments in neural language models (LMs) have raised concerns
about their potential misuse for automatically spreading misinformation. In
light of these concerns, several studies have proposed to detect
machi
本文提出一种使用风格学特征来辅助检测 AI 生成的推文的新算法,探讨利用预训练语言模型生成相似于人类撰写的文本的潜在威胁;针对推文信息量小的特点,提出两个任务:区分人工和 AI 生成的推文,以及检测 AI 何时在 Twitter 时间线上开始生成推文;实验证明风格学特征对于 AI 生成推文检测器具有有效的辅助作用。