- 有效预训练的蒙版标记的新特性
通过优化蒙面标记以解决自我监督学习中的效率问题,该方法称为蒙面标记优化(MTO),可实现与最新方法相当的预训练性能,减少近 50% 的预训练时期。
- YaART:又一种 ART 渲染技术
YaART 是一种有效且高保真度的产业级文本到图像扩散模型,通过强化学习从人类反馈中对齐到人类偏好。在开发 YaART 过程中,我们特别关注模型和训练数据集大小的选择,这些方面在文本到图像扩散模型中以前没有系统地进行研究。特别是,我们全面分 - ROMA-iQSS: 基于状态值学习与循环轮换多智能体调度的客观对齐方法
多智能体合作、去中心化状态价值学习、可伸缩性、效率和最优目标的识别与对齐是本研究的关键内容。
- 顶上的樱桃:大型语言模型中的参数异质性和量化
对大型语言模型中的参数异质性进行研究,发现少数 ``cherry'' 参数对模型性能具有巨大影响,而绝大多数参数影响微乎其微。基于此观察,提出了 CherryQ,一种新的混合精度参数优化方法,通过将关键 cherry 参数保存为高精度,将其 - COLING使用 PEFT 和合成数据增强低资源 LLMs 分类
提出了一种方法,使大型语言模型在 0-shot 文本分类任务中成为高效的文本分类器,并在低资源环境下获得了竞争性结果。
- PoCo:RGBD 室内地点识别的点上下文聚类
我们提出了一种新的端到端算法(PoCo)用于室内 RGB-D 场所识别任务,旨在识别给定查询帧在参考数据库中最可能的匹配。我们提出了一种新的网络架构,通过端到端学习直接从噪声点云中提取全局描述符,并将颜色和几何模态集成到点特征中以增强全局描 - 线性注意力序列并行
本文介绍了一种基于线性注意力的语言模型的高效序列并行化方法 ——LASP,通过设计高效的点对点通信机制以及融合核函数和中间状态缓存来使其在 GPU 集群上实现硬件友好且能与批量并行方法兼容,从而在大规模集群上具有更高的并行化效率和可用性。
- 探索是否足够?强化学习中用于迁移的有效探索特征
通过分析探索算法的特点和效果,我们研究了深度强化学习中的在线迁移学习,发现某些特征与多种迁移任务的有效性和效率改善相关,为特定迁移情况提供了有针对性的探索算法特征建议。
- 通过向量化核混合(VecKM)的线性时间和空间局部点云几何编码器
提出了一种新颖的本地点云几何编码器 VecKM,具有描述性、高效性和鲁棒性。VecKM 利用向量化的核混合来表示本地点云,这种表示具有描述性和鲁棒性,通过两个定理证实了其重构和保持本地形状相似性的能力。此外,VecKM 是首次成功尝试将计算 - 利用 LLMOps 驅動的個性化推薦系統最大化用戶體驗
利用 LLMOps 整合个性化推荐系统是管理 LLM 驱动应用的重要进展,这项创新为企业提供机会和挑战,需要专门的团队在处理工程技术复杂性的同时,优先考虑数据安全和模型可解释性。通过利用 LLMOps,企业可以提高大规模机器学习模型的效率和 - 内存可扩展的简化功能映射学习
通过提出的新型记忆可扩展和高效的功能映射学习流程,从而避免在内存中存储点映射,该方法通过可比较的结果证明其在效率和数值稳定性方面更为简化和高效,同时在具有挑战性的场景中实现接近于最先进技术的结果。
- 一种快速模型选择的两阶段召回和选择框架
提出了一种基于两阶段模型选择框架的方法,通过利用基准数据集上模型的训练性能来提高选择强大模型的效率,实验证明该方法让模型的选择速度比传统基准方法快 3 倍。
- SIGIR突破长度限制:在长文本用户行为中增强的 LLM 点击率预测
通过提出行为聚合分层编码(BAHE)来提高基于大型语言模型(LLMs)的点击率(CTR)建模的效率,通过利用 LLMs 预训练的浅层获取用户行为的嵌入并与深层进行交互以计算 CTR 得分,从而减少计算复杂性并使 LLMs 实用于工业 CTR - 鲁棒的 RGB-T 追踪中的中间融合和多阶段、多形式提示
提出了 M3PT,一种新型的 RGB-T 提示追踪方法,利用中融合和多模和多阶段的视觉提示来解决 RGB-T 追踪中的性能和效率之间的权衡、训练数据的稀缺性等挑战,并在四个具有挑战性的基准测试中超过了现有方法,同时达到了 46.1 fps - 多机器人计划执行的实时调度算法
在多智能体路径规划领域的一个研究方向是确定在执行过程中代理被延迟时如何高效地重新规划。我们提出了 Switchable-Edge Search (SES) 算法,一种基于 A * 的算法,旨在找到最佳的经过次序。我们证明了 SES 的最优性 - ICLR加速需求:一种修剪变换器的方法
一种用于提高预训练变换器体系结构效率的 OPTIN 框架,通过中间特征蒸馏捕捉模型参数的长程依赖(称为轨迹),在不需要重新训练的情况下在自然语言、图像分类、迁移学习和语义分割任务方面产生最先进的结果。同时,在满足 FLOP 限制的情况下,O - 具有教师 - 学生框架的超级实用对话生成系统
SuperFace 是一种师生框架,通过简单而有效的教师模型生成高质量的结果,并通过高度减少计算负载的身份特定的学生模型实现了质量与效率的平衡,为语音与视频驱动的面部生成技术提供了全面的解决方案,同时具备局部面部属性编辑的能力。
- 基于交叉栅极模拟内存加速器的 ADC 效率提升的修剪方法
通过识别三个关键属性,我们提出了一种适用于 ADC 特定效率低下问题的剪枝方法,实现 ADC 能量的降低并减少精度损失,从而提高深度学习效率。
- 一次编码,多次并行解码:高效 Transformer 解码
基于 Transformer 的 NLP 模型在计算成本上限制了其应用场景。我们引入了一种新的编码器 - 解码器模型配置(PiD),通过一次编码和并行解码输出来提高结构化输出和问答任务的效率,避免了重复的输入编码以及减小解码器的内存占用,从 - 工具究竟是什么?来自语言模型视角的调查
语言模型和工具的定义、应用场景、效率以及未来研究的挑战和可能性的综述。