差分私有注意力计算
本文讨论利用 Grover 的搜索算法有效地计算稀疏注意力计算矩阵,并在经典方法上实现了多项式量子加速。我们的量子算法输出的注意力矩阵还具有额外的低秩结构,这将有助于获得更快的 LLM 训练算法。此外,我们还对算法的错误分析和时间复杂度进行了详细分析。
Jul, 2023
本文提出了一种简单易行、计算轻量化的扰动机制,保证了模型的隐私性,在不影响模型实用性的情况下,可应用于所有 LLM 模型,解决了 LLM 在隐私保护与重新训练之间的折中问题。
May, 2022
通过对注意力机制中稀疏性的理论分析,揭示了注意力分数稀疏性的内在特性及其对计算效率的影响,并为优化大型语言模型的计算框架提供了一个理论检验,为更可扩展和高效的人工智能系统铺平了道路。
Apr, 2024
通过计算注意力矩阵,大型语言模型在许多任务中展现出了令人印象深刻的性能。本研究定义和研究了一种新问题,即注意力内核回归问题,并展示了如何在数据矩阵的输入稀疏时间内解决该问题。
Aug, 2023
研究发现在 LLMs 生成代码时,它们所关注的自然语言描述与人类程序员的关注点不一致,而一个基于扰动的计算方法的注意力最大程度地与人类注意力一致,说明我们需要更符合人类关注点的 LLMs 以提高代码生成的可解释性和程序员的信任度。
Jun, 2023
通过引入关注点卸载的概念,将昂贵的计算优化加速器与便宜的内存优化设备相结合,以提高大型语言模型的效率和成本效益。我们开发了 Lamina 推理系统,实验证明,相较于同质解决方案,Lamina 可以提供每美元 1.48 倍至 12.1 倍的更高预计吞吐量。
May, 2024
通过使用基于 Edgeworth 会计师的有限样本隐私保证 DP 框架,我们提出了一种针对 LLM 的 DP 细调框架 ewtune,该框架直接降低了噪声的影响,且在自然语言理解任务上将最新的 LLMs 性能提高了 1.1%。
Oct, 2022
通过理论分析高次多项式注意力机制的表达能力,我们指出高次多项式对于放大大值和区分数据集方面的更高效性,为在注意力机制中引入更高次多项式以捕捉复杂的语言关联提供了理论依据。
Oct, 2023
通过迭代贪婪算法,在近似于 ε 的时间内训练了一个损失函数 L (X,Y),其中 ε 是迭代次数,该算法关注大型语言模型、注意力回归、单层注意力网络、矩阵乘法等关键主题。
Sep, 2023