- 大型语言模型的序列位置效应
大语言模型在零样本学习应用中表现出了显著的能力,仅仅使用预训练信息生成查询的响应,而无需额外的精调。先前的研究表明,大语言模型可能表现出串位效应,如首位和末位偏差,这是人类心理学中被广泛研究的认知偏差。我们在各种任务和模型上进行了广泛的测试 - 大型多模型模型能否揭示图像背后的深层语义?
通过 DEEPEVAL 评估,本研究发现现有的大型多模态模型对深度语义的理解能力与人类存在明显差距,尽管在图像描述方面达到了与人类相媲美的性能。进一步分析表明,推理过程中结合描述文本可以显著增强大型多模态模型对深度语义的感知能力。
- 非交叉扩散的语义一致性
该研究纸介绍了一种创新的生成建模方法 —— 非交叉扩散,用于学习常微分方程模型。该方法通过引入升维输入的策略,有效地将两个分布采样点连接起来,以确保增强语义一致性。实证结果表明,非交叉扩散方法能够显著减少语义不一致,提升扩散模型的整体性能。
- 鲁棒优化蒙特卡罗的可扩展 Python 实现
利用 Python 软件包 ELFI 实现的、前瞻性的高度并行化的 Robust Optimisation Monte Carlo(ROMC)似然无关推断(LFI)框架,用于从后验中提供准确的加权样本,可被科学家用作即插即用的 LFI 算法 - 用于生成性语音增强的单步和少步扩散
通过两阶段训练方法,我们解决了扩散模型在语音增强中的潜在问题,实现了与基准模型相当的性能,缩短了推理过程时间,并显著优于扩散基线模型。
- TPTU:基于大型语言模型的人工智能代理任务规划和工具使用
通过设计两种不同类型的代理进程(即一步代理和连续代理),我们在 LLM 的基础上实例化了一个结构化框架,评估了它们在 typcial 任务的任务规划和工具使用能力,并突出了这些模型的巨大潜力以及需要进一步研究和改进的领域。
- ICCV学习组合神经信息融合用于人体解析
该研究提出将神经网络与人体组成层次相结合,形成神经信息融合框架,以实现高效和完整的人体解析,并基于多源信息进行条件融合。在四个著名的数据集上进行了广泛的评估,并在处理速度方面具有快速性能,其代码和结果已经发布以便未来的研究。
- AAAI网络重构:一种通用的网络架构转换方法
本文提出了网络重塑作为一种网络架构转换的通用方法,该方法可以通过块级重塑加速推理过程,同时还可以用于网络压缩。作者的实验表明,该方法在 GPU 上实现的速度优于之前的压缩方法。
- 面向大规模神经定理证明
提出了一种新型的神经定理证明器,通过仅考虑最高证明分数相关的证明路径,可以在以前无法应用的知识库上进行推理和学习。
- CVPR更复杂的网络,更少的推理复杂度
这篇论文提出了一种新的卷积神经网络结构,通过添加低成本协作层加速了推理过程,实验结果表明,平均加速率为 32%,性能下降极小。
- 游戏网络
本文介绍了 G 网络,一种新型的多智能体决策问题表示,其中的概率和效用独立性都被捕捉在网络结构中,利用该网络可以简化推理过程并解决了发现二者间的策略均衡问题。