- LieRE: 广义旋转位置编码
引入了 Lie 组相对位置编码(LieRE),在 2D 和 3D 图像分类任务中取得了显著性能提升(高达 6%),训练效率(降低了 3.5 倍),数据效率(提升了 30%),相比于 Rotary Position Embeddings(Ro - ACL提升知识图谱中多跳逻辑推理的上下文感知查询表示学习
通过全面整合 FOL 查询图的上下文,我们提出了一种模型不可知的方法,增强了现有的多跳逻辑推理方法,在两个数据集上的实验中,我们的方法始终提升了三个多跳推理基准模型的性能,最高可达 19.5%。
- 数据激发您的快乐吗?培训结束时的领域上采样带来的性能提升
通过对小型领域专用数据集进行上采样,以驱动性能在困难基准测试上的改进,本研究揭示了在多样性的一般网络抓取和领域专用数据信息密度之间寻求平衡的最佳方法。
- ICML一种无监督的时间序列周期性源检测方法
利用无标签数据和无需自定义数据生成机制的新方法检测时间序列数据中的周期性,克服了强数据增强可能导致的表示崩溃问题,并在三个时间序列任务中相对于现有学习方法表现出 45-50% 的性能提升。
- 思维的连锁:计划中 CoT 的分析
根据 Blocksworld 的案例研究,通过链式思维问题可以提高大型语言模型的性能,但需要高度问题特定的提示,并且存在性能改善和生成正确推理示例所需人力之间的明显权衡。
- 同变图卷积神经网络用于各向同性均质各向异性微结构力学响应的表示
本研究提供具有异性组分的材料的有效均质化模型的神经网络体系结构,通过等变和张量基础运算,满足等变性和材料对称性原则,展示了在不同纹理和相位的随机体积元数据集上,这些网络体系结构提供了显著的性能改进。
- CVPR利用样本间和特征间的关系进行数据集蒸馏
通过使用类居中约束和协方差匹配约束,提出的数据集精馏方法在解决分散特征分布和精确特征分布匹配两个主要限制方面表现出色,与相关方法相比,在 CIFAR10、SVHN、CIFAR100 和 TinyImageNet 上的性能提升分别达到最大为 - 缓存增强的终身多智能体路径规划
本文介绍了一种名为 Caching-Augmented Lifelong MAPF(CAL-MAPF)的新机制,用于改善 Lifelong MAPF 的性能,并通过实验证明了在某些任务分布、地图和代理配置下,CAL-MAPF 具备提升性能的 - CVPR$V_kD:$ 使用正交投影来改进知识蒸馏
通过特征蒸馏方法,我们的研究提出了一种新的约束特征蒸馏方法,该方法可以应用于训练小型高效的深度学习模型,并在 ImageNet 数据集上获得了显著的性能提升。
- 语言模型的算法进展
自 2012 年至 2023 年,使用 Wikitext 和 Penn Treebank 的 200 多个语言模型评估数据集,我们发现为达到一定性能门槛所需的计算量每 8 个月减少一半,置信区间为 5 到 14 个月,远快于 Moore 定 - 使用地图接种提高问题回答模型性能
QA 模型在解决复杂的和开放性的情境推理问题时,可以通过利用训练数据中的特定模式学习高性能解决方案,但这些模式降低了模型推广到真实世界 QA 问题的能力。通过对 QA 模型进行对抗性挑战测试,我们分析了数据集特征对模型的影响和发生。在已有的 - AAAI多任务学习中的分布匹配:在人脸及其他任务上的大规模研究
挑战现有多任务学习 (MTL) 框架,提出新方法通过分布匹配实现任务间的知识交流,证明少量注释或非重叠注释情况下的 MTL 仍能成功,且在各个领域的案例研究中均带来了较大的性能提升。
- ICLR使用分层接触网格变换器学习灵活体碰撞动力学
本文介绍了一种使用层级网格结构的接触网格变换器(HCMT),该变换器能够学习身体空间上远离的位置之间的长程依赖性,并且能够快速将碰撞效应传播到远方位置。通过对多个基准数据集的性能比较,结果表明 HCMT 相比现有方法能够显著提供性能改进。
- PowMix:多模态情感分析的多功能正则化方法
多模态情感分析中,引入了一种全面的正则化方法 PowMix,通过混合同模态和不同模态的组件,在融合阶段前促进模型性能提升,并且能有效改善基线模型和现有混合方法的性能。
- 基于无信道反馈的无线下行 FD-RAN 传输:基于无线电地图的复数预编码网络方法
该研究论文提出了一种无需依赖物理层信道反馈的传输方案,称为 RMCPNet 模型,在用户位置基础上输出基站预编码。该方案在公共 DeepMIMO 数据集上展示了相对于传统的实值神经网络和统计码本方法分别达到 16% 和 76% 的性能提升。
- ChipNeMo:面向芯片设计的领域自适应 LLMs
ChipNeMo 通过领域自适应技术在工业芯片设计中探索了大型语言模型的应用。我们评估了这些方法在芯片设计的三个 LLM 应用上的性能,并展示了这些领域自适应技术能够显著提升 LLM 的性能,并实现模型大小减少 5 倍但在一系列设计任务上具 - 生成模型的自动评估与指令调优
基于指令调优的学习度量可以提供自然语言生成的自动评估,通过对多任务的联合训练,可以进一步改善性能,对未来的少量或无人标注数据的任务具有积极意义。
- N-Critics: 大型语言模型的自我提升与评论家集成
提出了一种用于改善大型语言模型的自我纠正机制,通过批评家与模型自己的反馈对模型输出进行精炼,以减轻毒性和事实幻觉等问题。通过人类行为的启发,探讨了大型语言模型是否可以模仿人类的自我纠正过程,即借助自评和寻求他人意见来完善对复杂主题的理解。该 - EMNLP基于 LLM 的对话状态跟踪
对 ChatGPT 在对话状态跟踪 (DST) 任务中的能力进行了初步评估,发现其表现出色。为了解决 ChatGPT 的局限性,提出了基于小型开源模型的 LLM 驱动的 DST 框架 LDST,通过领域 - 槽位指令调优方法,LDST 在零 - EMNLP测试时间自适应的小型语言模型在问答中的应用
通过使用未标记的测试数据,我们展示并研究了仅凭借未标记的测试数据的自适应语言模型的能力。我们首先随机生成多个答案,然后在过滤掉低质量样本的同时将它们集成在一起,以减轻不准确标签引入的噪声。我们提出的自适应策略在基准问答数据集上表现出了显著的