通过夹层法优化学习布隆过滤器
本文研究了基于机器学习的预处理器对 Bloom 过滤器的增强,并提出了一种优化学习到的布隆过滤器性能的方法,最终提出了一种设计和分析方法来定义 learned Bloomier filter。
Jan, 2019
提出一种用于设计、分析和实现 “Learned Bloom Filters” 的新方法,并结合分类器和数据集进行了性能评估,我们的实验表明,这种方法和软件可以有效地帮助确定最佳的分类器和最适合不同数据复杂度问题的 “Learned Bloom Filters” 的类型。
Nov, 2022
本文探讨通过元学习一次性实现近似集合成员关系的学习,提出了一种新的记忆体架构,神经布隆过滤器(Neural Bloom Filter)可以在经典布隆过滤器和现有的内存增强神经网络上实现显著的压缩增益。
Jun, 2019
提出了一种能够在使用深度学习从推荐领域提取数据时对输入和输出进行压缩的方法 Bloom embeddings,并在对七个数据集的测试表明此方法能够提供计算效率和比原始方法更高的准确性。
Jun, 2017
研究表明,通过暂时修剪和恢复模型的子集滤波器,反复进行该过程,可以减少所学习特征的重叠,从而提高了模型的泛化能力;而在这种情况下,现有的模型修剪标准并不是选择修剪滤波器的最优策略,因此引入了滤波器之间内部正交性作为排名标准。这种方法适用于各种类型的卷积神经网络,能够提高各种任务的性能,尤其是小型网络的性能。
Nov, 2018
本文介绍了一种低秩适配器、基于对比目标的多语言大型语言模型 Siamese-BLOOM 和可扩展适配器 LoRA 以及 8 位 Adam 优化器,用于句子相似性分类。通过在 BLOOM 模型上应用对比目标的 Siamese 架构,解决了多语言标记数据稀缺的问题,并证明了从 LACoS-BLOOM 中学习到的嵌入质量与模型参数数量和未标记的训练数据量成比例,相对于以前的解决方案 Sentence-BERT,在英语和多语言 STS 任务上均取得了显着的改善。
May, 2023
本研究提出了一种用于在非常庞大的背景图中查找多个嵌入模板图的新方法,该方法基于 Sussman 等人提出的图匹配匹配滤波技术,通过在匹配滤波算法中迭代地对合适的节点对相似度矩阵进行惩罚,实现了多样化匹配的发现。此外,我们提出了算法速度的优化,极大地提高了我们的匹配滤波方法的可扩展性。通过在相关 Erdos-Renyi 图的设置中,理论上证明了我们方法在温和的模型条件下能够顺序地发现多个模板。我们还通过大量的实验验证了我们方法的实用性,包括使用模拟模型和真实世界数据集,如人脑连接组和大型事务知识库。
Aug, 2023