Mar, 2024

细调预训练语言模型用于检测游戏中的垃圾言论

TL;DR研究探讨了在线游戏中存在的有害行为和恶劣沟通问题,特别关注在线仇恨言论和毒性对玩家游戏表现和整体幸福感的影响。研究使用预训练语言模型来分类或检测游戏中的恶意言论和有毒信息,并评估了 BERT 和 GPT 语言模型在检测游戏内聊天中毒性的性能。通过公开可用的 API,收集、处理、审查和标注了 DOTA 2 游戏匹配中的游戏聊天数据,并使用 BERT(基于小写)模型、BERT(基于大写)模型和 GPT-3 模型进行了训练和测试。根据这三种模型的最新性能,本研究得出了预训练语言模型在解决在线仇恨言论和游戏中恶意侮辱性言论问题方面的潜力。