- 评估大型语言模型在语言变异维度上的性能:一项跨语言泛化的系统性调查
大语言模型在面对未知的相关语言和方言时会表现出性能下降现象,本论文通过对语言距离的建模和分析,提供了关于模型健壮性和任务特性对性能下降的洞察,为评估和缓解性能下降问题提供了便利
- 方言?我几乎不了解她:风格控制与刻板印象的挑战
大型语言模型(LLMs)在教育和学习应用中的使用不断增加。 研究表明,在控制风格以适应学习者需求的情况下,能够增加理解力,促进包容性,并有助于知识蒸馏。 为了了解当代 LLMs 在风格控制方面的能力和局限性,我们评估了五个最先进的模型:GP - 模仿用户数据:关于减轻封闭式大型语言模型的微调风险
在小而高质量的数据集上对大型语言模型进行微调可以增强其在特定下游任务上的性能,我们的研究探讨了在不同任务特定数据上进行微调时存在的安全风险,并提出了一种新的缓解策略,该策略在维持相似任务性能的同时,更有效地重新建立安全对齐。
- 引发平衡协作的对话游戏
合作是人类对话的重要组成部分。本研究介绍了一种在线的二人 2D 物体放置游戏,促进均衡的合作,通过协商目标状态实现自然的角色扮演和任务表现的提升。同时,引入基于 LLM 的基准代理程序,探讨了人工系统面临的挑战。
- ICML数据集蒸馏学习是什么?
数据集精炼是一种克服大数据集困难的策略,通过学习一组保留原始数据集关键信息的紧凑合成数据。研究中探讨了关于精炼数据的行为、代表性和逐点信息内容的三个问题,揭示了精炼数据不能在数据集精炼标准评估环境之外用于训练,但能通过压缩真实模型早期训练动 - 学习任务的替代方法
通过学习少量执行任务的示例,我们引入了一种归纳性方法来学习多种模型,每个模型都代表一种执行任务的替代策略。我们将此方法应用于手术技能训练和烹饪领域的常见活动识别任务,并通过评估模型是否能够代表示例并捕捉执行任务的不同形式来验证其有效性。研究 - 超越准确性:评估大型语言模型的推理行为 -- 调查研究
大型语言模型在推理任务中表现出色,但是它们的推理能力深度尚不确定。本文通过综述超越任务准确性的研究,深入探讨模型的推理过程,并调查评估语言模型推理行为的方法,发现其依赖于训练数据的表面模式和相关性,而非真正的推理能力。同时,我们指出需要进一 - 具有控制理论安全保证的动态网络桥接的多智能体强化学习
通过整合多智能体增强学习和控制理论方法,本文提出了一种混合方法来解决安全关键环境中的复杂合作任务,包括一个新颖的设定更新算法以动态调整智能体位置以保持安全条件而不影响任务目标。实验证明相比传统的多智能体增强学习策略,该方法在任务性能和安全违 - 疑虑时,慢思考:具有潜在想象力的迭代推理
我们在这项工作中提出了一种新颖的、无需训练的方法,通过在决策时应用迭代推理,基于未来状态表示的连贯性来优化被推理的智能体状态,从而提高了模型驱动的强化学习智能体的性能。
- 学习利用元强化学习抽象视觉动作映射
通过研究人类获取新技能所需的多个视觉运动映射的能力,我们发现上下文提示作为不同的 “网格世界” 实施时,能够更高效地让参与者学习两个不同的关键映射。结果表明,当提供上下文信息时,任务表现显著提高,这适用于不同的元强化学习代理程序,无论它们在 - 强化学习智能体中自然出现类脑式回放
在这项工作中,通过使用基于循环神经网络的强化学习模型,我们在任务优化范式下发现了自然出现的回放,它模拟了海马体和前额叶皮质的互联以及感觉皮质输入,而回放在任务表现上能很好地匹配动物实验数据,同时也成功地再现了局部和非局部回放,这与人类实验数 - 解锁可预测的增长能力
通过大规模采样在解码阶段引入 PassUntil 评估策略,本研究量化了任务性能的扩展规律并发现了突现能力的具体证据,从而推翻了有关突现能力产生的常见 “多步推理假设”,提出了一种符合观察到的扩展曲线的新假设。
- HeaP:使用 LLM 的网页行为的分层策略
大型语言模型(LLMs)通过使用层次化促进和学习低级策略,能够解决 Web 任务的组合和变化问题,从而在使用更少数据的情况下提高任务执行性能。
- 基于概念的解释,促进智能体学习和用户理解
复杂 AI 系统使用时,为了便于非 AI 专家理解,正在努力开发能够产生可理解的 AI 决策解释的方法。本文提出了一个关于在序贯决策制定环境中定义 “概念” 的愿景,并探索了基于概念的解释对强化学习代理和最终用户的双重益处,同时通过提供学习 - 强化学习的对比初始状态缓冲器
强化学习中,探索和利用之间的权衡对于从有限样本中实现有效学习提出了复杂的挑战。我们引入了对比初始状态缓冲区的概念,独立于底层的强化学习算法,选择过去的经验中的状态并使用它们来初始化环境中的智能体,以引导它朝着更有信息量的状态发展。实验结果表 - 具备死亡避免和恢复功能的安全强化学习
本文提出了一种较少对 RL 探索限制的安全 RL 框架方法,通过利用预训练的安全批判和安全恢复策略来构建一个划定安全状态的边界,并采用行为校正机制确保代理只采取安全动作,该方法在连续控制任务中表现出更好的任务性能和更少的安全违规。
- KUCST 参加 CheckThat 2023: 使用通用模型的高水平表现
本文介绍了我们在 CheckThat2023 共享任务的任务 2 和任务 3A 中的方法。我们利用了一种通用方法,训练了许多机器学习模型,结果表明 Gradient Boosting 在两个任务中表现最佳,但整体表现与其他团队相当。
- 在低资源条件下调查预训练音频编码器
使用三种最先进的语音编码器,Wav2vec2、WavLM 和 Whisper,对于 7 个语音理解和生成任务在低资源环境下进行了全面的实验,研究结果表明,Whisper 编码器在执行与内容相关的任务时具有最好的性能和收敛速度。
- LLMs 中并非所有语言的质量相同:通过跨语言思维提示提高多语言能力
本研究提出了一种名为跨语言思维提示(XLT)的方法,通过激发跨语言和逻辑推理技能,改善了大语言模型的多语言能力,并在与推理、理解和生成有关的 7 个基准测试中进行了全面的评估,实验结果显示 XLT 不仅显著提高了各种多语种任务的性能,而且还 - 人工智能协作:AI 委派对人类任务执行和满意度的影响
在一项 196 名参与者的实验研究中,我们发现,无论人类是否意识到辅助作业的人工智能模型,通过代理任务来协同完成工作可以提高任务的表现和满意度,同时提高自我效能感,这为 AI 担负更多的管理责任是人 - AI 协作的有效形式提供了初步证据。