- 深度强化学习的最优策略稀疏化和低秩分解
使用 $L_0$- 范数正则化技术稀疏化深度强化学习策略,通过低秩分解提供压缩效果,以减少计算资源消耗和限制过拟合。
- 快照强化学习:利用先前轨迹提高效率
该论文提出了 Snapshot Reinforcement Learning (SnapshotRL) 框架,通过改变环境而不修改算法和模型来提高采样效率,实验证明将 S3RL 与 TD3、SAC 和 PPO 算法相结合可以显著提高 MuJ - DeepSet SimCLR:用于改进病理学表示学习的自监督深度集合
本文旨在改进标准的 2D 自监督学习算法,通过对数据集的内在 3D 特性进行建模来解决在 3D 医疗数据中应用的计算资源问题,并且提出了两个改进版本,证明在各种下游任务中,这两个版本往往优于基准模型,同时也几乎不带来额外的开销,提高了医疗应 - ALLaVA: 利用 GPT4V 合成的数据为轻量级视觉 - 语言模型开发
利用 GPT-4V 生成图像的详细标题、复杂的推理指令和详细答案,通过合成数据集,我们训练了 ALLaVA 模型,该模型在 12 个基准测试中取得了竞争性的性能,展示了在构建更高效的 LVLMs 中采用高质量数据的可行性。
- 条件信息增益网络
使用条件计算的深度卷积神经网络中的路由机制可以在仅使用计算资源的一部分时实现与无条件基准相媲美甚至更好的模型性能。
- 关于图像分辨率对语义分割影响的研究
通过简化网络架构,我们展示了一种直接产生高分辨率分割结果的简化模型,其性能可以与生成低分辨率结果的更复杂系统匹配,并通过底层信息传播技术在不同尺度上提高分割准确性。
- 评估基于基础模型的联邦学习的稳健性、隐私性和公平性
通过将基础模型整合到联邦学习中,我们研究了其对稳健性、隐私和公平性的影响,并提出了一套应对这些挑战的标准和策略,同时确定了推进该领域的潜在研究方向,为构建可靠、安全和公平的联邦学习系统奠定了基础。
- 高能物理领域的混合量子视觉变形器用于事件分类
基于视觉变换器架构的模型在图像分类任务中被认为是最先进的。本文构建了几种量子混合视觉变换器的变体,用于高能物理中的分类问题,并将它们与经典视觉变换器架构进行了测试。我们的研究结果表明,在参数数量相似的情况下,混合模型可以达到与经典模型类似的 - 允许混淆的 LiNGAM 推广
通过引入 LiNGAM-MMI 方法,该论文增强了 LiNGAM 模型,使用 KL 散度量化混淆的大小并按照最小化其影响的方式排列变量,实现全局最优的变量顺序,同时在有和无混淆的情况下以与传统 LiNGAM 相同的高效性处理数据。
- 基于需求定制的 LMLs 服务
通过引入层级分布式的大型语言模型(LLM)架构,提高 LLM 在异构计算平台上的可访问性和可部署性,实现按需访问和定制化服务,并在用户与应用需求之间取得最佳权衡,推动人工智能技术的进步。
- 统一宽度自适应动态网络用于一体化图像修复
对比传统图像恢复方法,全能图像恢复技术引起了人们的关注,因其能恢复受不同类型和程度损害的图像。然而,现代全能图像恢复方法忽略了任务间的困难,并使用相同的网络重建受不同退化影响的图像,这导致了任务相关性的低估和计算资源分配的次优化。为了阐明任 - 线索引导的路径探索:一个高效的知识库问答框架,低计算资源消耗
我们介绍了一个名为 Clue-Guided Path Exploration (CGPE) 的框架,它有效地将知识库和大型语言模型相结合,以少量的计算资源要求更新模型的知识,并在开放数据集上的实验证明其优于现有方法,对于计算资源有限的组织和 - 泰米尔语的形态与句法
这篇论文概述了泰米尔语的形态和句法,侧重于其当代用法,并强调了在形态和句法特征方面泰米尔语的复杂性和丰富性,这对于分析该语言和进行比较研究的语言学家有所帮助。此外,该论文对于开发泰米尔语的计算资源也非常有用。
- 计算高效的主动学习
通过简单而有效的方法不仅可以降低主动学习过程的计算成本,还能保持模型性能,从而优化大规模数据集的标注效率。
- 分形几何的潜力和卷积神经网络对其编码能力的研究
通过研究分形维度如何随测量尺度变化来提供对象复杂性的统计指标,本研究调查了深度模型学习的特征,以及这些深度网络是否能够编码像分形维度这样复杂和高级的特征。研究表明深度网络无法在任何层次中提取这样的特征,而仅操作分形特征的模型在某些应用中的分 - 预训练语言模型的参数高效微调方法:关键评估与考察
预训练语言模型与基于它们的参数高效微调方法被综合评述,重点讨论了内存效率和计算资源限制等参数效率问题以及应用于下游任务的挑战和机遇。
- BIM: 基于块的自监督学习与图像模型掩膜
我们引入了一种新的学习框架,即分块式遮蔽图像建模(BIM),用于解决遮蔽图像建模(MIM)的计算资源需求高的问题,并在保持卓越性能的同时大大降低内存消耗,同时实现多个深度不同的 DNN 骨干的并发训练,从而降低与单独训练每个 DNN 骨干相 - 投机的对比解码
通过对大型语言模型进行推测性对比解码,提高了生成质量的同时节省了计算资源。
- 自适应递归视觉执行零样本计算,以适应未见困难程度的扩展
通過使用自適應遞歸神經網絡,我們研究了可根據輸入要求動態分配計算資源的遞歸處理,在視覺推理問題中實現了對更困難程度的一般化,而無需訓練。
- CapST:一种强化且轻量化的深度伪造视频分类方法
通过创新和简化的模型,本研究致力于对通过五种不同的编码器生成的深度伪造视频进行分类,该模型在性能上达到最新水平,并且优化了计算资源的利用。该模型结合了 VGG19bn 的一部分作为骨干,使用胶囊网络和时空注意机制增强了模型的分类能力,并通过