- 将小型模型用于改进大型模型:降低成本和提升性能
基于预训练大模型和小模型协同合作的数据分流 +(DS+)范例可通过充分利用小模型处理简单子任务,从而显著降低大模型查询的成本并提高性能。
- 可编程衍射与数字神经网络的集成
光学成像和传感系统基于衍射元件取得了巨大的进展,最近使用深度学习和数字神经网络的研究努力使衍射处理器与数字神经网络合作优化,建立了输入电磁波与后端处理数字化信息之间的新的 “衍射语言”,从而为各种应用提供了巨大的潜力。
- 压缩传感器缓存与协作稀疏数据恢复及锚点对齐
提出了一种协作稀疏数据恢复方法,通过锚节点对多个缓存的本地恢复数据进行对齐,采用基于多项式和一致性交替方向法的算法,通过深度展开进一步降低迭代次数,实现了改进的重建质量和减少的通信开销。
- 多智能体深度强化学习中的协作决策方法:混合 Q 学习用于变道
本文提出了一种名为 MQLC 的方法,它通过整合混合价值 Q 网络,同时考虑集体和个体效益,以解决自主车辆路径规划中的车道变换决策问题。通过在观察中整合基于深度学习的意图识别模块并加强决策网络,使多主体系统能够有效地学习并制定最佳决策策略, - 引发平衡协作的对话游戏
合作是人类对话的重要组成部分。本研究介绍了一种在线的二人 2D 物体放置游戏,促进均衡的合作,通过协商目标状态实现自然的角色扮演和任务表现的提升。同时,引入基于 LLM 的基准代理程序,探讨了人工系统面临的挑战。
- 生成式人工智能提升团队绩效并减少对传统团队的需求
近期生成人工智能在协作工作流程中的应用取得了重大进展,对团队绩效的影响仍未被充分探索。本研究通过一项随机对照实验,在 122 支团队的 435 名参与者中研究了生成人工智能在增强或取代传统团队动态中的作用。研究结果表明,在各种绩效指标上,增 - 辅助指导:基于 LLM 技术的聊天机器人与人类教练结合的混合形式,有效支持领导力成长的自我反思
探索使用近期大型语言模型(LLM)与专业教练合作的聊天机器人在高管教练领域潜力的论文,发现了聊天机器人的普适性和推理能力的好处,同时明确了其局限性和与人类教练有效合作所需的设计要求,为使用对话代理增强自我反思过程的人机合作奠定了基础。
- 添加效应辅助学习
两阶段协作学习架构,利用隐私保护假设检验筛选有用数据,然后通过迭代模型训练和有限的摘要统计信息传输,实现与中心化数据相同的理论和数值效果。
- 人类中心的图神经网络解释的设计要求
图神经网络为各领域的强大基于图的机器学习模型,但复杂的数据表示妨碍了对其预测解释的可理解性,从而减少了对其的信任和合作机会。该研究旨在为非技术领域专家提供可理解的图神经网络解释,并提出了一套以人为中心设计的解释要求,并通过两个示例原型来演示 - ICML协同异质因果推断 —— 超越元分析
本研究提出了一种用于处理异质数据的协作逆倾向得分加权估计器,在协作中调整分布转移,从而在异质性增加时显著提高性能,提出了一种联邦学习算法来在保持隐私的同时协作训练结果模型,并通过合成和真实数据集展示了方法的优势。
- 先进人工智能模型的整体安全和责任评估
高级 AI 模型的安全性和责任评估是研究和实践的一个关键但发展中的领域。该报告总结了 Google DeepMind 在高级 AI 模型的开发中创新并应用了一系列广泛的安全评估方法,并分享了其演变过程中的方法以及从中得出的教训。
- FedMID:一种使用中间输出作为防御机制防止联邦学习中的中毒攻击的无数据方法
通过对本地模型的中间输出进行功能映射,我们提出了一种新的防御联邦学习中的毒化攻击的方法,实验证明我们的机制在广泛的计算条件和高级攻击场景下都具有鲁棒性,通过联邦学习实现了数据敏感参与者之间更安全的协作。
- 社会导航中追随人类线索
基于机器人的状态 - 动作历史,提出了第一个社交动力学适应模型(SDA),用于推断社交动态。在共享环境中,机器人通过学习人类轨迹并基于该信息、当前状态和前一动作学习运动策略,成功实现了人机协作和社交导航。通过在 Habitat 3.0 平台 - 关于在线模型选择与分散数据的合作必要性
我们研究了在线模型选择与分散数据的问题,从最小化遗憾与计算成本的折衷角度提出了一种联邦算法,并证明了合作的必要性和限制计算成本的条件。我们的算法在分布式在线多核学习中提高了遗憾界限,并依赖于三种新技术:改进的马丁格尔的 Bernstein - 利用大型语言模型(LLMs)支持人工智能在线风险数据协作注释
利用 LLMs 作为交互式研究工具,促进人类编码员与人工智能之间的合作,有效地标记大规模在线风险数据。
- GoEX: 面向自治 LLM 应用的运行时的视角和设计
研究人员探讨了人类如何与自主的大型语言模型高效合作,通过引入可逆操作和损害限制等策略实现后验验证,为减少人为监督解锁了大型语言模型与应用之间的潜力。同时介绍了一个用于执行大型语言模型操作的开源运行时平台 Gorilla Execution - 解决多智能体成群问题中大型语言模型面临的挑战
通过解决多智能体集群问题,研究了大型语言模型(LLMs)在空间推理和协作方面的挑战以及未来改进和研究方向。
- 您的同事很重要:评估语言模型在 Blocks World 中的协作能力
通过设计一个块世界环境,在这个环境中,两个拥有独特目标和技能的语言代理需要通过行动和自然语言交流合作来建立一个目标结构,并采用中间推理步骤来模拟合作者的状态并识别和纠正执行错误,最终的实验结果表明语言代理具有很强的基础能力,并且我们的方法显 - MAPL: 模型无关的点对点学习
在去中心化环境中,有效协作是一个不太被探索的领域。为了解决这个问题,我们引入了模型不可知的点对点学习(简称 MAPL),通过邻近客户之间的点对点通信,同时学习异构个人化模型和协作图。我们的实验证明了 MAPL 的有效性以及与集中式无模型对应 - 利用 LLM 的力量进行 MAS 中的规范推理
基于大语言模型的代理能力的研究及挑战,旨在促进多主体系统、自然语言处理和大语言模型研究领域的合作,以推动规范代理的发展。