- ICML当不平等较低时,分配只需要预测
利用一个简单的数学模型,我们评估了基于预测的分配在具有更大单位(如医院、社区或学校)的设置中的有效性,发现当单位间的不平等性较低且干预预算较高时,基于预测的分配优于仅使用聚合单位级统计的基准方法。我们的结果适用于各种设置,包括预测成本、治疗 - KDD学习灵活的时间窗格兰杰因果关系,整合异质干预时间序列数据
本研究基于异质干预时间序列数据,提出了一种理论上有根据的方法,用于推断 Granger 因果结构并识别未知目标。进一步揭示了学习 Granger 因果结构与恢复干预目标之间的相互促进关系,并在比较实验中证明了我们的方法在学习干预时间序列数据 - 混合有向无环图中的干预因果发现
通过干预来学习混合因果模型中变量之间的因果关系是一项具有挑战性的任务,本文提出了匹配性的必要和充分条件以及一种自适应算法,用于学习混合因果模型中的所有真实边,具有最佳干预效果并在混合模型不包含循环关系时尺寸最小。
- ICML低秩张量块危险模型的因果客户流失分析
使用潜在因子块危险模型和张量完成方法,在分析各种干预对客户流失影响时,提出了一种创新方法。模型考虑了客户流失数据的二元特性和时间单调趋势,并通过独特的干预分类方法增强了实施客户保留策略的精确性和实用性。
- 平衡短期和长期回报的政策学习
提出了一种新的框架,用于学习有效平衡长期和短期回报的最优策略,通过推导估计器的一致性、渐近正态性和半参数效率界限,揭示了短期结果如若关联,将有助于改善长期回报的估计器,基于所提出的估计器,发展了一种基于原则的策略学习方法,并推导出与所学策略 - 降维多目标策略学习与优化
通过降维回归模型,我们提出了一种数据驱动的方法,以多目标的最优政策学习为背景,从观测结果中学习出真实结果的低维度表示。我们的方法在政策评估和优化中降低了估计误差,通过降低噪音社会结果的方差,提高了算法分配的性能。
- 盐胡椒调味品与季节组合干预预测
通过对基因干预的影响进行估计,本研究聚焦于基因对的组合对细胞转录组的效应,并引入了 Salt 和 Peper 两种新方法,Salt 从生物学启发并假设组合效应主要是加性的,而 Peper 则通过深度学习拓展了 Salt 的加性假设以实现前所 - ACL误称性别修复者:一个基于社区参与的干预方法
通过对美国的性别多样化个体进行调查,本文是第一篇针对误用称谓所缺乏的干预研究进行调查,并根据调查结果提出了误用称谓干预任务和评估数据集 MisgenderMender,该数据集包括社交媒体内容和关于非二元性别公众人物的文本,通过检测和纠正误 - 评估大型语言模型的干预推理能力
评估大型语言模型在干预作用下准确更新其对数据生成过程的知识的能力,以及对因果推断中不同因果图和变量类型的干预性推理的研究。研究结果表明,虽然 GPT-4 模型在预测干预效果方面表现出有希望的准确性,但它们对提示中的干扰因素仍然敏感。
- ReFT: 语言模型的表示微调
参数高效微调方法通过少量权重的调整来适应大模型。本研究通过发展一系列表示微调方法来探索该假设,利用隐藏表示上的任务特定干预进行表示编辑,展示在多个评估中,低秩线性子空间表示微调方法可以实现比先前最先进参数高效微调方法更好的效率和性能平衡。
- COLING基于 Transformer 的 NLI 模型中的自然逻辑特征因果效应估计
利用因果效应估计策略衡量上下文干预和插入词对于推理标签的影响,通过广泛的干预研究验证模型对不相关变化的稳健性和对有影响变化的敏感性。
- pyvene:通过干预理解和改进 PyTorch 模型的开源库
通过在模型内部状态进行干预,我们介绍了一个开源的 Python 库 pyvene,它支持对不同的 PyTorch 模块进行可定制化的干预。该库提供了一个统一且可扩展的框架,可以在神经模型上执行干预操作,并与他人共享这些修改过的模型。我们通过 - 具有一般因果模型和干预的因果强盗
该论文研究因果强化学习问题,通过考虑因果干预顺序的最小累积遗憾度量来优化回报函数,提出了一种新的方法。
- 预测个体治疗效果的共形蒙特卡洛元学习器
利用条件平均治疗效果 (CATE) 估计器的一种新方法,结合符合性预测系统、蒙特卡罗采样和 CATE 元学习,以提供在个体化决策中使用的预测分布,并展示噪声分布的特定假设会对不确定性预测产生重大影响,然而,CMC 框架在保持小间隔宽度的同时 - SSDOnt:用于表示单一受试设计研究的本体
SSDOnt 是一种特定目的本体论,用于描述和注释单一受试者设计研究,以便之后可以对其进行复杂的问题提问。
- 主观因果关系
通过观察决策者的干预偏好,我们展示了可以理解和识别决策者的主观因果判断的可能性。通过使用因果模型,我们表示因果关系,其中世界由一组变量组成,通过方程式进行关联。我们证明,如果干预偏好关系满足某些公理(与关于反事实的标准公理相关),那么我们可 - 混淆预算因果强化学习
我们研究了在由基础因果图模拟的随机环境中学习 ' 好的 ' 干预的问题,其中 ' 好的 ' 干预是指最大化奖励的干预,在预定的预算限制下考虑非均匀成本的干预,我们提出了一种算法以在一般因果图中最小化累积遗憾,并开发了一种算法以在预算设置下最 - 疫情爆发的头 100 天:药物、行为和数字介入的相互作用研究 —— 一个基于代理模型的研究
利用基于代理的模型 (ABM) 对复杂的感染动态和干预影响进行模拟,研究了疫情流行的趋势以及干预措施的综合应用,发现在前 100 天内做出迅速决策和高效政策制定对疫情发展至关重要,同时揭示了行为和数字干预可以减少药物干预的负担,延迟疫情高峰 - 基于心智模型和可解释强化学习的个性化决策支持
我们提出了一种新颖的个性化决策支持系统,它结合了心智理论建模和可解释的强化学习,以提供有效和可解释的干预。我们的方法利用强化学习提供专家行动建议,并结合心智理论建模来理解用户的心理状态和预测他们未来的行动,从而实现适时的干预。为了解释干预结 - 利用稀疏添加机制移动变分自编码器进行细胞扰动建模
生成模型,干预,稀疏加性机制迁移变分自动编码器,扰动模型,面向机器学习驱动的科学发现的利器。