用户策略与可信算法
用户行为对推荐算法产生影响,用户可以采取策略来塑造其未来的推荐结果。该研究实验证明用户策略化行为普遍存在,推荐平台需要考虑算法对用户行为的影响。
May, 2024
本文旨在研究设计面向用户的策略推荐系统时需要考虑的重要因素。我们进行了一项人体实验,测量了不同性格类型的用户对不同策略推荐系统的偏好,并发现某些人格特征明显影响了特定类型的系统的偏好。最后,我们报告了推荐的可用性、一致性和感知智能之间的有趣关系,其中更高的一致性与个人偏好推荐会导致更高的感知智能和可用性。
Jan, 2023
现实世界的系统中,用户在一组服务中进行选择,通过在线学习算法,这些服务可以自我优化并最大化一些回报,而用户可以策略性地选择服务以追求他们自己的回报函数,我们分析了一个策略性用户在多个可用的服务中进行选择的情境,并研究了损失函数在这种情境下的收敛行为。
Jan, 2024
该研究论文概述了可信度推荐系统的六个最重要方面:安全性与鲁棒性、非歧视与公平性、可解释性、隐私性、环境福祉以及问责与审计,并讨论了未来实现可信度推荐系统的潜在研究方向。
Sep, 2022
本文研究算法决策,分析了在社会不平等的情况下,一方面面临更高的成本的候选群体可能会被错误地排除,而另一方面面临更低成本的候选群体可能会被错误地接受。本文还探讨了给予补贴的干预效果,发现某些情况下给予补贴只会提高算法决策者的效用,但实际上会损害所有候选群体的利益,包括补贴接收者。
Aug, 2018
通过进化博弈理论,我们证明了不同的监管机制对用户的信任和发展可信的 AI 有着重要的影响,包括通过政府认可和奖励监管者,以及用户对监管者有效性的信任决策。
Mar, 2024
本文旨在引起对机器学习模型意外建模弱点的关注,并提出了一些方法来检测潜在的弱点建模,以及确定模型是否对弱势群体进行了不同的处理。作者建议我们考虑立法和人工智能伦理学,以防止算法决策基于潜在的弱点状态表示被认为是操纵和对弱势个体的状况产生恶化影响。
Jan, 2023