- 适用于时间数据分析的经常性随机配置网络
开发适用于问题解决的随机配置网络的循环版本,无需对输入变量的动态顺序进行基本假设,并通过监督机制构建初始模型并通过投影算法在线更新输出权重,从而在时间数据建模技术方面取得了显着突破。
- 分而治之?您应该压缩 LLM 的哪个部分?
我们提出一种将问题分解为问题分解阶段和问题解决阶段的策略,并证明该策略能够优于单阶段解决方案。通过在结合问题解决 LLMs 的同时利用较小的问题分解模型,我们能够实现具有高效推理和局部适应性的推理。
- COLINGRoCode: 从问题定义中测量代码智能的数据集(罗马尼亚语)
RoCode 是一个包含 2642 个以罗马尼亚语编写的问题,11000 个使用 C、C++ 和 Python 编写的解决方案以及针对每个问题的全面测试套件的竞争编程数据集,旨在提供一个用于评估在罗马尼亚语 / 多语言文本上训练的语言模型的 - 提升团队实时问题解决能力的一种新的表达方式
提出了一种支持实时计算度量的新型表示,用于了解和改进团队在现实问题解决过程中的行为,该表示捕捉了解决过程中团队开发、增强和利用的不同心理形象。通过案例研究来说明该表示方法。
- 技能背景提示:解锁大型语言模型的组合性
通过 skills-in-context 提示策略,本研究发现通过演示技能与组合示例在同一提示环境中,能够激发大型语言模型的内在潜力,使其能够解决需要创新技能组合的未见复杂问题,并且能够激活和组合这些内在竞争能力。
- 定义数据科学:一门新的探究领域
该研究针对数据科学多重定义的挑战,提出基于数据科学参考框架的一致、统一的定义,并提供了必要的数据科学工件候选定义。
- LLM 们已经足够先进了吗?一个为大型语言模型提供挑战性问题解决基准的测试
本文介绍了一个新的基准数据集 JEEBench,用于评估 Large Language Models 的问题解决能力,其中包含了 450 个有挑战性的预工程数学、物理和化学问题。本文对 GPT 系列模型进行了评估,发现即使使用 Self-C - 思维之树:利用大型语言模型进行有意识的问题解决
通过 Tree of Thoughts (ToT) 框架,可以弥补语言模型在考虑多种不同推理路径时的局限性,进而提高语言模型在需要问题解决的任务中的表现。实验表明,使用 ToT 的方法大大提高了语言模型在三个需要非平凡计划或搜索的任务的解决 - CHAI-DT: 一个鼓励对话生成人工智能代理主动参与协同创作的框架
本文探讨了在商业创新和合作创造背景下,利用生成 AI 模型在面向小组的协作框架中增强解决问题和构思的潜力,并提出了一种新的提示技术,通过使用受传统人际促进和指导方法启用 ChatGPT 参与设计思维,实验表明聊天 GPT 有能力为 Desi - 通过交互式分布式认知技能模块进行知识获取
本研究介绍了一种模块化方法,通过分布式认知技能模块实现程序性技能的获取和存储,以扩展其利用的限制。
- 智能系统认知特征评估及预测能力评估
本文提出了一种智能系统评估通用双轴刻度。该刻度考虑了智能系统在环境背景下随时间发展的特性,强调了预期能力对于其计算能力的调节影响,并讨论了解决问题的正确性和适当性如何与解决能力本身的正确使用联系起来。
- ICLR测量大规模多任务语言理解
论文提出了一种新的测试方法,以测量文本模型的多任务准确性,涵盖了包括数学、历史、计算机科学、法律等 57 项任务,为了达到高准确性,模型必须具备丰富的世界知识和问题解决能力。通过综合评估模型的学术和专业理解的广度和深度,我们的测试可以用于分 - MM关于 ASP 中抽象化的探讨及其在代理策略推理中的应用
介绍了一种保留 ASP 程序结构的抽象方法,可以自动抽象大型问题空间,并可应用于定义响应性代理的声明性策略及其分析。
- MM非基础规则在答案集编程中的威力
该论文提出了一种新的 ASP 编码模式,通过利用实际问题的大规则来编码难题,尤其针对 NP 问题能提供更强的表达能力,并且提供基于规则分解技术的解决方案,初步的基准测试表明,放弃固定程序的简便方式可以显著提高速度。
- AAAI本地最优问题求解的协同学习
介绍了一种新的在线问题求解方式 —— 共同学习,将该方法应用于一些难以得出全局最优解,或仅能对局部解做微小改进的问题中,并通过理论分析和实验方式评估该方法的有效性。
- PowerPlay 的首次实验
PowerPlay 是一种基于 SLIM RNN 神经网络的问题求解架构,它通过自我发明问题来不断学习新的技能并简化、压缩或加速以前的任务的解决方案,成长为一个不断扩展技能库、自我模块化并不断提出新问题、解决自己发明的问题的系统。