- 检索增强的代码生成用于情境动作生成:Minecraft 案例研究
在该研究中,我们调查了使用大型语言模型(LLMs)来预测建造者采取的动作序列,在 Minecraft 协作建筑任务中,建筑师通过指示建造者使用 3D 方块来组装指定结构。借助 LLMs 的上下文学习能力,我们使用少样本启发式技术显著提高了性 - 一种基于 LLM 的评估自动对抗叙事生成方法的排序方法
使用大型语言模型作为评估者,提出了一种对生成的反话进行评估的新方法,通过在锦标赛格式中对生成的反话进行成对比较,建立了一个模型排名流程,并与人类偏好达到了 0.88 的相关性。此外,通过细致的评估和性能分析,发现以聊天为导向的零 - sho - MM内在确定主题数量的方法:是否可能?
通过对几个公开可用的语料库上应用多种主题模型的各种方法的性能进行调查,揭示了内部方法并不可靠和准确,主题的数量是方法和模型相关的,而不是语料库的绝对属性。我们得出结论,应该开发其他解决这个问题的方法,并提出一些进一步研究的有希望的方向。
- 一种基于严重程度原则的针对随机优化算法性能分析的新型排名方案
提出了一种新的排名方案,利用基于鲁棒的自助法假设检验程序对多个单目标优化问题的算法进行排名,并考虑了算法的性能改进的大小和实际相关性,与传统假设检验相比,提出的排名方案具有可比性和许多额外的好处。
- 边缘辅助无线网络中扩展现实应用的性能分析建模框架
本文提出了一种新颖的建模框架,用于考虑边缘辅助无线网络的扩展现实应用的性能分析,并通过专门为扩展现实应用设计的测试平台收集的实验数据对模型进行验证。此外,我们详细介绍了与性能分析建模相关的挑战,并提出了克服这些挑战的方法。最后,性能评估表明 - 基于综合预测的混合和堆叠有状态 / 无状态模型分析
本研究通过使用四种深度递归神经网络模型,对 Mississippi State 大学校园附近机场站点的短期风速进行预测,详细描述了模型的体系结构、效率以及通过 RMSE 值获得的结果,并讨论了上述模型的时间和空间复杂度。
- NeuraChip: 使用基于哈希的解耦空间加速器加速 GNN 计算
NeuraChip 是一种基于 Gustavson 算法的新型 GNN 空间加速器,通过分离稀疏矩阵乘法中的乘法和加法计算,实现了数据依赖性的独立利用,减少了片上内存中数据闲置的问题,并通过动态再分配哈希映射实现了计算资源的负载平衡,从而在 - 为下一代 MIMO 设计的生成式人工智能代理:基础、挑战和愿景
本文研究了基于生成式人工智能代理的下一代 MIMO 设计,提出了生成式人工智能代理的概念,并探讨了其特点和优势,还从性能分析、信号处理和资源分配的角度讨论了生成式人工智能代理实现下一代 MIMO 设计的挑战和方法,并通过两个实例展示了生成式 - 深度学习模型在 X 射线图像肺部分割的比较分析
本研究评估深度学习解决方案在 X 射线图像的肺部分割方面的可靠性和高准确性,对 61 篇研究论文进行分析,只有九篇提供了实施或预训练模型,最终评估 CE-Net 表现最佳,其 Dice 相似系数和交集比例度量值最高。
- LLaVA-Gemma:利用紧凑的语言模型加速多模基础模型
我们使用近期发布的 Gemma 系列大型语言模型(LLMs)在流行的 LLaVA 框架中训练了一套多模态基础模型(MMFM)。我们测试了删除三个设计特征对模型性能的影响,并对性能进行了深入分析。最终的 LLaVA-Gemma 模型在多项评估 - COLING关于基于 LLMs 的零封声生成
本研究通过零 - shot 设置中对四种大语言模型(GPT-2,DialoGPT,ChatGPT 和 FlanT5)的分析,提出了三种不同的提示策略,以改善对抗性言论生成,在生成质量有所提升的同时,发现模型大小的增加会增加毒性,ChatGP - 基于 Transformer 的情感检测:一项比较研究
本研究探讨了基于 Transformer 模型在文本数据情感分类上的应用。我们训练和评估了几种预训练 Transformer 模型,并对 Transformer 层的微调、可训练性以及文本数据预处理等因素进行了分析。我们的分析发现,常用的技 - 计算流体动力学问题上基于代理的进化算法的性能比较
这篇研究论文使用两个真实的计算流体动力学问题比较了十一个最先进的单目标代理辅助进化算法的性能表现,结果发现最近发布的方法以及利用差分进化作为优化机制之一的技术明显优于其他方法。
- 评估自主编队算法的基准测试平台的设计与实现
自主驾驶车队展现中短期机会以提高运营效率和挽救生命。本文介绍了一个可以评估和基准测试装载传感器的 1/10 比例车辆车队算法的测试平台,通过对典型车队场景进行变速的参考轨迹跟踪的实验,评估了线性反馈和两种分布式模型预测控制算法,并验证了算法 - 基于 LLMs 时代的解码方法全面研究
该研究通过全面而多方位的分析,评估了大型语言模型在各种任务、模型和部署环境下的解码方法的性能表现、对超参数变化的鲁棒性和解码速度,发现解码方法的性能与任务相关,并受到对齐、模型规模和量化等因素的影响。有趣的敏感性分析揭示了某些方法在广泛超参 - 重新评估内存平衡的管道并行性:BPipe
通过对 BPipe 技术在 GPT-3 和 LLaMA 模型上的性能分析以及对 BPipe 性能评估方法的引入,我们发现了 BPipe 在 GPT-3 和 LLaMA 训练上性能不同的原因,并提出了一种新的估算 BPipe 性能的方法。
- 基于 KPI 的高性能计算数据中心作业聚类的无监督方法
高性能计算系统中的性能分析是一项重要任务,本文主要贡献是识别出最适合于根据高性能计算系统中作业行为对其进行分类的度量标准,并验证了网络流量监测相关的度量标准与层次聚类算法在此任务中的适用性。
- 量子神经切向核的表达能力诱导的浓缩
量子切线核方法在无限宽度限制下分析量子机器学习模型表现的效率,对某些学习任务设计适当的电路架构至关重要。研究了量子切线核模型的可训练性和表达能力之间的联系。特别是对于全局损失函数,严密证明了全局和局部量子编码的高表达能力会导致量子切线核值向 - 社群检测中近似、启发式和图神经网络算法中的模块化最大化分析
分析表明,常用的基于模块性的方法在发现社区结构时很少产生最优划分或最接近最优划分的划分,因此,推荐使用近似优化算法以在方法适用范围内更加方法论严谨地使用模块性。
- FusionAI: 基于大规模消费级 GPU 的分布式训练和部署 LLMs
在这篇研究论文中,我们提出了一个分散系统,利用具有隐私保护功能的消费级 GPU 在对大型语言模型进行预训练、推理和微调时发挥潜在的巨大作用。通过采用备用资源池实现计算提供者的动态加入和退出、基于硬件性能的任务调度、抽象化机器学习过程为有向无