- 贪婪 SLIM:基于 SLIM 的偏好调查方法
基于 SLIM 的贪心 SLIM 方法是用于偏好获取的一种新的训练技术,对于偏好获取比基于潜在因素模型的广泛使用的方法更加适用,通过离线实验和用户研究来评估其性能,结果表明该方法在用户研究方面表现出色。
- 基于 LLM 的习得函数的贝叶斯优化在自然语言偏好了解中的应用
设计一个基于贝叶斯优化框架的自然语言查询方法,通过与用户进行对话来主动获取自然语言反馈,以减少对项目效用的不确定性,从而识别出最佳推荐。
- 基于语言模型的贝叶斯偏好引导
将 AI 系统与用户的兴趣相协调需要理解和融入人类复杂的价值观和偏好。我们介绍了一个名为 OPEN 的框架,它利用贝叶斯最优实验设计(BOED)指导选择信息丰富的问题,并利用语言模型(LM)提取特征和将抽象的 BOED 查询转化为自然语言问 - 交互推荐中的软属性偏好征求
基于软属性,利用概念激活向量开发了一种新颖的偏好征集方法,结合了物品和属性的偏好征集,以提高推荐系统的推荐质量。
- 可解释的主动学习用于偏好调查
通过主动学习和基于用户的偏好调取方法,解决在推荐系统中缺乏用户存在或受限于其他用户数据访问的冷启动问题,从而提供个性化推荐。
- 部署强健偏好引发算法:针对 COVID-19 患者优先顺序制定的实验设计、界面和评估
研究检验了一个新的在线选择策略的实用性,该方法使用 AI 和优化来有效地了解利益相关者的偏好,与其他方法相比,该方法对于推荐具有更高效用性的政策表现出更好的性能,特别是在 COVID-19 流行期间的疫情管理中。
- 机器学习驱动的课程分配
本文介绍了一种基于机器学习的课程分配机制,将 Course Match 机制与基于机器学习的偏好引导模块相结合,实现个性化的查询,其结果显示,相比于 Course Match,MLCM 可将平均学生效用提高 4%-9%,并可将最小学生效用提 - 利用偏好获取用户感知的算法性干预
本研究提出了一种新的范式,通过引入首个基于人类偏好征集的人在环路方法,将用户视为过程的主动参与者,结合蒙特卡洛树搜索的强化学习智能体以提供个性化干预以实现算法回溯。
- MM通过使用相关问题在对话式推荐系统中征求用户偏好
该研究论文提出了一种基于使用情况的隐式问题提取方法,利用大型评论语料库中的句子和神经文本转换模型生成问题,以更有效地收集用户偏好,通过众包方式完成多阶段数据注释协议以准确标记神经模型训练数据,并进行了模型性能分析。
- 参与性预算:模型和方法
研究了从计算社会选择文献中出现的参与性预算的调查,提出了参与性预算的数学模型,讨论了选民激励,公平性公理等方面的问题。
- AAAI构建性偏好获取的分解策略
我们提出了一种基于偏配置推理和反馈的分解技术来解决构造性决策问题中用户偏好的学习,并且证明这种方法能极大地减少用户的认知负荷,并且在一个合成问题和两个现实问题上得到了有希望的实验结果。
- AAAI基于混合组合空间的积极偏好引出
本论文介绍了一种基于 Choice Perceptron 的算法,该算法可用于从 set-wise choice feedback 中学习用户喜好,并在理论上证明了其良好性能。该算法可解决搜索空间较大、具有 Boolean-numeric - AAAI共同批判:好恶和特性的引出
本文提出了一种偏好引导方法,扩展了合作式学习方法来收集用户的反馈信息,并且动态扩展特征空间以集成用户的批评,其中包括构造性学习任务,实证分析证明了本方法的优越性能及应用前景。
- IJCAI通过集合最大边缘学习实现建设性偏好征求
本文提出了一种适用于大型配置空间的偏好获取方法,其中集合最大间隔法可视为将最大间隔学习推广到集合领域,并可生成一组 “多样化” 的项目,以询问用户的详细信息。此外,该方法可以鼓励参数空间的稀疏性,以支持有利于仅集中于少数特征权重组合的实用性 - IJCAI单调性交叉域的偏好引导
本文研究了单交叉偏好配置下的偏好引出问题的查询复杂度,并提供了多项式时间算法以及各种访问模式下的偏好引出算法。
- IJCAI树上其单峰偏好的引导
本研究探讨了对于多代理系统中的单峰树型偏好如何通过尽可能少的询问获取其偏好信息,并且发现查询复杂度与叶子数、路径覆盖数和路径距离等参数密切相关。在此基础上,还探讨了基于单峰树型偏好的弱 Condorcet 赢家查询复杂度相对较低的问题。
- 使用比较问题引出单峰偏好
这篇文章研究了如何用最少量的查询来调查代理人的单峰偏好,通过实验结果证明其有效性。
- 一般随机效用模型的偏好引导
本文探讨了基于参数化建模的 {General Random Utility Models (GRUMs)},并基于贝叶斯实验设计的原则提出了两种 GRUMs 的偏好引导方案,其中之一适用于社会选择,另一种适用于个性化选择。我们还结合 Mon - 基于遗憾的马尔可夫决策过程奖励引导方法
本论文将奖励函数规范的问题视为偏好引出问题,并旨在在仍允许产生最优或接近最优策略的情况下,最小化必须规定奖励函数的精度。通过使用极小极大后悔准则来计算只有部分奖励信息的 MDP 的健壮策略,然后演示如何使用边界查询高效引出奖励信息,以减少后 - 偏好引导和逆强化学习
通过偏好评估,我们提出了 Bayesian 逆强化学习的一个方法,可以从观察到的信息中得出代理的偏好、策略和奖励序列的后验分布,并通过分析和实验结果展示与其他统计逆强化学习方法之间的关系。结果表明,即使观察到的代理策略不是最优的,我们也能够