Aug, 2022

在混合对抗非对抗的情况下从数据中学习:找到帮手,忽略骗子

TL;DR本文研究如何在人工交互对话中进行鲁棒性强的学习,其中将人工对话分为有害(trolls)和有益(helpers)两类并引入了一种评估方法(SafetyMix)以此来测试学习算法的鲁棒性。研究结果表明在该环境中基于用户的方法比基于样例的方法更为有效。