机器学习的 ALAMO 方法
机器学习中的代数学习方法,通过从训练数据中找到一个最小大小和最大自由度的代数表示来实现泛化,该方法不需要正则化或函数最小化。该方法在手写字符识别和无监督学习等问题上取得了高精度,可能为数据驱动的概念定义和大规模并行化提供有利的结合。
Mar, 2018
通过 TV-regularized LASSO 方法和 ALMA 算法,本研究为 MRI 重建过程中选择合适的调优参数提供了一种数值求解约束优化问题的有效工具。
Jun, 2024
LLAMA 是一种模块化和可扩展的工具包,用于探索各种不同的算法组合方法,以解决问题域中的任何问题。该工具包实现了文献中最常用的算法选择方法,并利用 R 语言中的大量机器学习算法和技术。
Jun, 2013
提出了一种名为 ALGO 的框架,该框架使用 LLM 生成的神谕来引导算法程序的创建和验证。实验表明,与 Codex 和 CodeT 等现有领先模型相比,在处理未知问题时,使用 ALGO 可获得 8x 和 2.6x 的更好的一次提交通过率。
May, 2023
本论文介绍了一种基于贝叶斯神经网络的框架,可通过只使用少量标记测试数据有效地测试机器学习模型的正确性,该框架利用数据扩充方法训练 BNN 以实现高精度,同时采用理论信息为基础的采样策略来采样数据点以实现准确的度量估计,并通过实验表明我们的方法比现有基准显着地提高了指标估计的准确性。
Apr, 2021
本研究提出了一种实用的不精确增广拉格朗日方法(iALM)用于具有非凸问题和非线性约束,这种方法可以在计算复杂度上符合理论结果。
Jun, 2019
混合线性回归是参数统计学和机器学习领域中一个被广泛研究的问题,本文研究了在没有生成模型的情况下,如何通过异态学习使用期望最大化算法 (EM) 和交替最小化算法 (AM) 进行混合线性回归的参数估计。
Jun, 2024
这篇论文提出了一个名为 I-LAMM 的计算框架,旨在同时控制算法复杂度和统计误差,在拟合高维模型时具有最优的统计性能和可控的算法复杂度,本理论依赖于一种局部稀疏 / 受限特征值条件,可以分析大量的损失和惩罚函数,并在非常微弱的假设下提供最优性保证。
Jul, 2015
该研究介绍了一种名为 LLM 辅助在线学习算法(LOLA)的新型框架,通过将大型语言模型(LLMs)与自适应实验相结合,优化内容传递,以提高用户参与度。研究结果表明,与传统 A/B 测试方法相比,LOLA 在有限的实验流量或多种实验情境下表现更好,特别适用于数字广告和社交媒体推荐等各种数字环境中的内容实验。
Jun, 2024