- GenQA:从少数提示生成数百万个指令
研究如何从单个提示生成大型指导数据集,使用较少的人工监督,使 LLMs 能够撰写多样化的指令示例,从简单的完成任务到复杂的多轮对话,并在知识密集型任务和对话评估中超过了 WizardLM 和 Ultrachat,在扩展性和可伸缩性方面超过了 - 超越噪音:最佳邻域识别下的内在维数估计
在这项工作中,我们介绍了一种自动选择合适尺度的协议,该尺度能够使内在维度具有意义且有用,并且通过对人工和真实数据集的基准测试来证明了该程序的实用性和鲁棒性。
- 量化 LLM 在规模和精度方面的能力
通过对模型规模和量化的综合评估,发现在各种任务中,规模较大的模型通常优于规模较小的模型,同时大规模模型对于精度降低有很好的韧性,可在较小的内存要求下保持高准确性,因此它们比使用更小的模型更好。
- ImageNot: 对比 ImageNet 保持模型排名
我们介绍了一个名为 ImageNot 的数据集,这个数据集在规模上与 ImageNet 相匹配,但在其他方面有很大差异。我们展示了在 ImageNot 上训练和评估的关键模型架构与在 ImageNet 上的排名完全相同,不论是从头开始训练还 - 离线强化学习的简单成分
离线强化学习算法被证明在与目标下游任务高度相关的数据集上非常有效,然而,在轨迹来自不同源头的新测试平台(MOOD)上,我们发现现有方法在面对不同数据时效果明显下降:随着收集到的与任务相关但不同的数据简单地添加到离线缓冲区,它们的性能显著恶化 - ALOHA 2: 强化的低成本双臂远程操作硬件
ALOHA 2 是 ALOHA 的改进版本,通过开源其硬件设计和提供详细教程以及 ALOHA 2 的 MuJoCo 模型,加速大规模双手操作研究的进程。
- 大规模重温对抗训练
通过在规模上应用对抗训练,我们引入了一种名为 AdvXL 的高效训练策略,它能够以可承受的计算成本训练巨型模型和网络规模的数据,从而在 ImageNet-1K 上建立了新的鲁棒准确性记录。
- NormNet: 堆叠场景中的 6D 姿态估计的比例归一化
基于规模不同的堆叠情景中的对象姿态估计,本文提出了一种新的 6DoF OPE 网络 (NormNet)。该网络利用点对点回归学习每个对象的规模,并通过语义分割和仿射变换将堆叠情景中的所有对象归一化到相同的尺度,并通过共享位姿估计器恢复它们的 - EMNLP快速准确的长文档事实不一致检测
SCALE 是一种用于检测事实不一致的任务无关模型,通过使用新的分块策略,它使用大型文本块对长文本进行条件建模,其在多种任务和长文本的事实不一致检测方面实现了最先进的性能,并通过相关源句检索来解释决策。
- 训练时间和事后溯源识别增强的规模化
近期的研究中,我们提供了有关最新的超出分布(OOD)检测方法 - 极简激活塑形(ASH)的见解和分析。我们证明了激活修剪对 OOD 检测有着不良影响,而激活缩放则增强了 OOD 检测效果。此外,我们提出了 SCALE,一种简单而有效的后期网 - SCALE:异构语言翻译引擎的协同合作
SCALE 是一个协作框架,将紧凑的专用翻译模型(STM)和通用大型语言模型(LLM)连接为一个统一的翻译引擎,通过将 STM 的翻译引入三元组的上下文演示中,SCALE 释放了 LLM 的完善和转向能力,从而减轻了 LLM 的语言偏见和 - 因果鹦鹉:大型语言模型可能谈论因果关系,但并非因果
大规模语言模型 (LLMs) 无法成为因果模型,但可能在其数据中展现变量间因果事实的一个新的子组模型。实证分析提供了有利证据,表明当前的 LLMs 更像是弱的 ' 因果鹦鹉 '。
- 比较可伸缩的生成数值角度策略
数值观点、规模、类比、特定背景数值观点和在线字处理器。
- FedYolo:使用预训练变换器增强联邦学习
本研究探讨了使用预训练转换器来实现设备上的联合学习目标,并深入研究了模型大小和模块化的作用,其中 Modularity 通过提示或适配器等模块实现适应性,Scale 能够减少通信次数。结果证明,使用单个通用模型可以解决多个不相关的任务,并且 - 扩展 MLPs: 归纳偏差的故事
本研究重新探讨了深度学习最基本的构架之一 —— 多层感知机(MLP)在视觉任务中的性能极限,重点研究了不同规模下的预训练对于 MLP 性能的影响,揭示了缺乏归纳偏差时尺度扩展对于性能表现的提升。
- 通过在线知识蒸馏实现解释 GNN 的多专业学习者
SCALE 是一个快速通用的 GNN 解释框架,通过训练多个特殊学习器来解释预测,同时提供结构化的总体和实例级特征贡献。
- 使用 8 点算法作为相对位姿预测的归纳偏差 (ViT)
本文介绍了一种基于 Vision Transformer 的简单方法,可以直接估计两个图像之间的相对位姿,能够在多种场景下与先进的复杂方法相媲美,在有限的数据情况下有很强的性能优势。
- ACL文本数据库推理
我们提出了一种模块化架构来支持处理数据库查询,并在 WikiNLDB 数据集上进行了评估,结果表明我们的方法可以扩展到包含数千个事实的数据库,并将整体答案准确率从 85%提高到 90%。
- ICLR极坐标变换网络
通过极坐标变换网络 (PTN),将等变性的概念从旋转扩展到卷积神经网络中的平移和旋转,并在旋转后的 MNIST 数据集和 SIM2MNIST 数据集 (包括平移、旋转和缩放的 MNIST 的变体) 上实现了最先进的结果设置。
- 世界的两个故事:广泛使用的世界新闻数据集 GDELT 和 EventRegistry 的比较
本文比较了 GDELT 和 Event Registry 在监测全球新闻文章、提供大数据方面的规模、新闻来源和新闻地理方面的差异,我们发现两个数据集在规模和新闻来源方面有显著差异,但在新闻地理方面具有高度相似性。