- 超(表)对齐:在弱到强的泛化中,强模型可能欺骗弱模型
通过使用具有弱监督的模型对强大模型进行监督,最近的研究初步探讨了超级对齐问题。实验发现,弱监督的强学生在对齐目标上持续胜过弱教师,引发了弱到强泛化现象。然而,我们担心在这种令人期待的现象背后,是否存在弱到强欺骗问题,即强大模型可能通过在弱模 - 时间序列模型的联合预测区域
应用机器学习算法构建预测区间是一个具有挑战性的问题,特别是在时间序列上。本研究实现了 Wolf 和 Wunderli 的方法来构建联合预测区间,并与其他方法进行比较。该方法基于自助法,并应用于不同的数据集和预测器。研究结果显示,强预测器(如 - 模糊本体中结构化场景的增量引导和分类
本文介绍了一种在模糊领域中重塑 Scene Identification and Tagging(SIT)算法的方法,利用模糊 DL 本体论来克服其感知噪声问题,并通过与清晰实现的 SIT 的性能比较展示了模糊 SIT 的鲁棒性,保留其清晰 - 高分辨率遥感卫星图像中稀有目标检测的引导方法
本文提出了一种解决罕见物体检测任务的方法,通过离线和在线聚类方法,显著提高样本曝光效率并实现有效的机器学习地图绘制。以肯尼亚和坦桑尼亚的塞伦盖蒂玛拉地区的 bomas 检测为例,实验证明了检测效率的显著提升,预算为 300 个样本总数时的 - 线性函数逼近的离策多步 TD 学习分析
本文分析了在线性函数逼近、离策略学习和自举的 “致命三角” 场景中的多步 TD 学习算法,并证明了当采样周期 n 足够大时,n 步 TD 学习算法收敛到一个解。基于这些发现,提出并分析了两种 n 步 TD 学习算法,这些算法可以视为梯度和控 - 踩脚自校准:通过自启动扩展 LLM 的尺度自对准
自校准是降低人工标注成本并确保模型能力的有效方法。本文探讨了多次引导自校准对大型语言模型的影响,发现多次引导自校准明显优于单轮引导,通过在上下文学习中保证数据多样性。基于这些发现,提出了 Step-On-Feet Tuning(SOFT)用 - 通过引导和精简大型语言模型实现高效毒性内容检测
BD-LLM 提出了一种新颖而高效的方法,利用 Bootstrapping 和 Distilling 技术提取高质量的 rationales,用于毒性内容检测,并可提高 Large Language Models 的准确性和跨数据集的可迁移 - 从视觉基础模型起步的稀疏 Transformer
用于视觉理解的 SparseFormer 通过调整 RoIs 利用较少的视觉标记提供了一种替代方案,从而大大减少了计算成本并同时实现了有希望的性能。我们提出了一种简单高效的方法,通过从基于 ViT 的视觉基础模型中启动 SparseForm - BAVS:通过整合基础知识引导音频 - 视觉分割
本文提出了一种基于多模态基础知识的两阶段引导式音频 - 视觉分割框架用于消除分割中的背景噪音或离屏音,通过明确建立音频 - 视觉对应关系和在音频 - 视觉树上追踪校准对象标签的方式,实现了真实音频对象的有效分割。
- 直接梯度时差学习
提出一种直接解决双重采样问题的方法,通过在逐渐增大的马尔可夫数据流中使用两个样本,该算法在计算上与 Gradient Temporal Difference (GTD) 一样高效,但摆脱了 GTD 的额外权重,而唯一的代价是随着时间的推移, - 一致性引导的元学习用于引导半监督的医学图像分割
本研究提出了一种用于半监督医学图像分割的元学习方法,通过先使用少量干净标记图像进行训练来生成未标记数据的初始标签,并引入基于损失梯度方向的像素权重映射系统来进一步优化引导过程。此外,还引入了一种一致性伪标签增强方案来提高模型自身预测的质量, - 在大型语言模型中通过迭代引导提高思维链路提示
通过使用迭代的引导选择,我们介绍了迭代链式思考(Iter-CoT)方法,该方法可以使大型语言模型(LLM)自主纠正错误,同时选择具有适度难度的挑战性问题作为样本,从而增强 LLM 对于不同难度的推理任务的泛化能力。实验结果表明 Iter-C - MM利用变分自编码器改进盲均衡的自举
本文评估在关键工作点启动盲均衡器的效果,分析常用算法的优点和障碍,并演示最近提出的基于变分自编码器的均衡器如何改善引导过程。
- 无需获取模型的本地模型解释和不确定性
我们提出了一个针对机器学习模型的模型无关算法,用于在仅可得到模型的输入输出样本而非对模型本身直接访问时生成事后解释和不确定性区间。
- 跨低资源非洲语言引导 NLP 工具:概述及前瞻
总结南部非洲原生非洲语言的自举技术,其中包括使用语法和基于规则的自然语言生成,以及使用比较语言学中的类似度措施,这是进一步研究的肥沃领域。
- ILLUME: 通过人类交互合理化视觉语言模型
本研究旨在提出使用人与机器生成数据进行调整范例,以改进视觉语言模型的常识推理与人类意图的一致性,结果发现我们的 ILLLUME 方式可有效改善模型的推理能力,并仅需较少的训练数据以及极少数反馈。
- KDD利用风格迁移的引导状态表示,提高深度强化学习的泛化性能
提出了 Thinker,一种自助引导方法,通过对经验轨迹进行聚类和应用样式转移生成器来提高强化学习代理的泛化能力。实验结果表明,与基准算法和多种数据增强技术相比,Thinker 在 Procgen 基准环境中具有更好的泛化能力。
- 跨语言问答作为冰岛语单语开放式问答的基础
该研究提出了一种数据节约的方法,通过有限的语言资源和机器翻译的数据以及双语语言模型,针对英语以外的其他语言,构建了开放领域跨语言 QA 系统,并使用冰岛语对该系统进行了测试。
- 不确定性估计的整体学习:先验函数和自助法的优势
本文将探讨模型集成中两个重要因素 -- 先验函数和自助法 -- 的作用,提出了先验函数可以显著提高集成模型在输入上的预测能力且自助法可以在信号 - 噪声比变化时带来额外的好处。通过理论和实验结果,作者证明了这两个元素对于提高机器学习代理的表 - AAAI有效地结合值预测和特征预测的广义 Bootstrap 目标方法
本文提出了一种新的更新价值函数的方法 ——η 回报混合,其将 TD 方法和 SF 方法相结合,并在表格和非线性函数逼近上进行了实验,结果表明该方法具有更高的效率和控制性能。