优化的被忽视的规范承诺
本研究针对自动决策系统公平性评估中常被忽略的风险和福利考虑提出了一种基于福利的公平性度量方法,其凸形式允许我们将其作为任何凸损失优化流程的约束条件进行集成,并通过实证分析揭示了与预测准确性、群体歧视和个体公平性之间的有趣权衡关系。该方法是第一个能够限制个体不平等性的计算机可行机制。
Jun, 2018
本文探讨了当存在独立的多维目标且无法互相归约时,将目标形式化地表示为绝对数学函数所面临的困难性,并提出了使用不确定性目标作为一种替代方案。我们证明了,将已知的某些不可能定理转化为两种设置下的不确定定理,并证明了这些不可能结果所蕴含的不确定度的下限。最后,我们提出了两个关于不确定目标与人工智能系统的严重意外后果之间关系的猜想。
Dec, 2018
研究表明,通过使用数据驱动的预测模型作出的决策越来越多,对于这些决策的影响,对于个人和社会,决策者透明公开的政策也就越来越重要。我们的研究目标是找到在具有策略性投资的情况下,对于实用性最优的决策策略,在我们的研究中,我们首先表征了个体策略性努力投资如何导致特征分布的变化,然后提出了一种适用于多种情况的最优决策策略的搜索方法,并根据合成和现实数据的实验结果,说明了我们算法找到的决策策略比没有考虑策略性的决策策略的实用性要高。
May, 2019
本文介绍了结合预测算法和优化技术来解决不确定性决策问题的上下文优化领域。文中关注单一和两阶段随机规划问题,识别了三种从数据中学习策略的主要框架,并讨论了它们的优点和局限性。
Jun, 2023
智能代理依赖人工智能/机器学习功能来预测可能行动的后果并优化策略。然而,过分追求预测准确性忽视了对效用的准确可靠评估,导致期望效用与实际影响之间存在重大差距。该研究通过量化效用不确定性和概率估计对预期效用的敏感性,比较两者的影响,提出从纯准确性驱动的方法转向更加注重效用的方法。
Oct, 2023
通过高通量(批处理)贝叶斯优化和人类决策理论,本文提出一种方法,使领域专家能够影响最优实验的选择。该方法旨在解决人类在离散选择上比连续选择更擅长的假设,并在每次迭代中通过求解增广多目标优化问题返回备选解集合,从中专家选择一个进行评估。研究表明,即使在无经验的情况下,该算法仍能恢复标准贝叶斯优化的遗憾。
Dec, 2023
人们的感知有偏见,Kahneman-Tversky前景理论告诉我们,对齐LLMs和人类反馈的目标隐含地包含了许多这些偏见 - 这些目标的成功部分可以归因于它们是人类感知感知的损失函数(HALOs);我们使用Kahneman-Tversky模型提出了一种HALO方法,该方法直接最大化生成物的效用而不是最大化需求偏好的对数似然,这种方法叫做Kahneman-Tversky优化(KTO),在从1B到30B的规模上与基于偏好的方法的性能相匹配或超过;关键是,KTO不需要偏好 - 只需要对于给定输入的输出是可取还是不可取的二进制信号,这使得在偏好数据稀缺且昂贵的现实世界中更容易使用。
Feb, 2024
本文研究在存在战略个体行为的情况下的算法决策,其中使用机器学习模型作出对人类个体的决策,而后者可以战略性地调整自己的行为以改进其未来的数据。研究重点在于非线性设置,其中个体只能通过决策策略的本地信息来响应决策策略。同时考虑最大化决策者福利(模型预测准确性)、社会福利(战略行为导致的个体改进)和个体福利(机器学习对个体的低估程度)的目标。理论结果表明,仅仅最大化某些参与方的福利必然会减少其他方的福利,因此我们认为在非线性设置中平衡各方福利是必要的,并提出了一种适用于一般战略学习的不可缩减优化算法。通过对合成数据和真实数据的实验证实了所提算法。
May, 2024
本研究针对人工智能(AI)与优化结合的伦理部署面临的挑战,提出了针对AI驱动优化的伦理指南。通过案例研究,本文强调了在建模、数据管理、结果分析和实施过程中需考虑的伦理因素,旨在提升研究人员的伦理意识,而非仅提供规则,推动更全面的伦理决策。
Sep, 2024
本研究解决了在数据泛滥的背景下,决策者面临的最佳选择与无法量化的定性因素之间的平衡问题。提出了一种新的框架——生成策展,通过高斯过程建模未知道的定性因素,实现了定量最优性与定性多样性之间的平衡,从而生成一系列可操作的近似最优选择。这一方法在复杂环境下验证了其有效性,对政策和管理具有重要影响。
Sep, 2024