Feb, 2022

使用 ToxiCR 自动识别有害代码审查

TL;DR此研究提出了 ToxiCR,一种基于监督学习的毒性识别工具,旨在帮助 FOSS 社区处理代码审查交互过程中的有害对话。该工具可以选择十种监督学习算法之一、文本向量化技术之一,以及八个预处理步骤之一,具有良好的判别能力,提高了 95.8%的准确性和 88.9%的 F1 得分。