BriefGPT.xyz
Oct, 2022
FEAMOE: 公平、可解释和适应的专家混合模型
FEAMOE: Fair, Explainable and Adaptive Mixture of Experts
HTML
PDF
Shubham Sharma, Jette Henderson, Joydeep Ghosh
TL;DR
本文提出了一种新颖的“混合专家”框架FEAMOE,旨在学习更公平、更可解释/易解释的模型,能够快速适应分类器精度和公平性上的漂移,多个数据集上的实验证明了该框架无论在精度还是在公平方面都可以与神经网络相媲美,且能够快速地解释模型决策。
Abstract
Three key properties that are desired of
trustworthy machine learning
models deployed in high-stakes environments are
fairness
,
explainability
→