对话回应时间的神经生成
通过对规则集进行三种简单的扩充,并剪枝低质量规则,实验结果表明这些简单的扩充方法能够持续改善结果,使得使用扩充规则的模型在 MRR 上获得高达 7.1 百分点的增益,并在 Hits@1 上获得 8.5 百分点的增益。
Jul, 2024
通过实施序列标记神经模型,本文首次尝试解决 Ancient Egyptian 文本中分类符号的辨识问题,并对比了以频率为基础的基准模型,取得了令人满意的性能。
Jun, 2024
自动生成可视化工具的标题是很不新鲜的,但是最近大规模语言模型 (LLMs) 的进步为此带来了令人激动的新可能。本文在对信息可视化(InfoVis)原理和过去的标题工作进行简要回顾后,介绍了在通用 LLMs 中使用的神经模型和变压器架构。接下来,我们讨论了它们在 InfoVis 中的最新应用,重点是标题。此外,我们还探讨了这个领域未来的有希望的研究方向。
Jun, 2024
通过对相对空间的角度保持相对表示的可逆性进行形式化,并假设神经模型中解码器模块的尺度不变性,我们将两种方法结合起来,通过相对空间获得潜在空间转换的新方法。通过在各种架构和数据集上进行大量实验证实了我们的尺度不变性假设,并证明了我们方法在潜在空间转换中的高准确性。我们还将我们的方法应用于任意预训练文本和图像编码器及其分类器之间的零射缝,甚至跨模态。通过组合性,我们的方法具有促进模型实际重用的显著潜力。
Jun, 2024
我们提出了一种新颖的 LLM 基于特征的框架,将基于特征的方法和神经网络方法的优势结合起来,评估对话的建设性。这个框架首先定义了一组与数据集无关且可解释的语言特征,然后利用这些特征训练 LLM 基于特征的模型,从而比传统基于特征的模型和神经模型表现更好,学习更强大的预测规则,而不是依赖表面的捷径。此外,我们证明解释这些 LLM 基于特征的模型可以获得有价值的对话建设性见解。
Jun, 2024
将光谱几何原理融入神经建模中,提出一个多功能框架,通过在功能域中比较不同空间,测量其内在相似性,找到它们之间的对应关系,并有效地在不同空间之间转移表示,从而在各种应用中验证了我们的框架,展示了潜在的功能映射可以作为表示对齐的多功能工具。
Jun, 2024
提出了一种新的模型架构,包括熵增缩放因子(ESF)和分布特定解码器(DS),用于增强神经模型在解决不同规模和分布的车辆路径问题方面的泛化能力,并证明了它们的有效性和适用性。
Jun, 2024
稀疏化技术在大规模神经模型运行中减少计算成本的常用方法之一。本文提出了一种新的循环神经网络(RNNs)稀疏化技术,称为模量规则化,结合幅值修剪。通过使我们的规则化术语明确成几何形式,我们首次对我们的神经网络的期望稀疏架构进行了先验描述。验证了我们的方案对导航和自然语言处理 RNNs 的有效性。
Jun, 2024
该论文回顾了受哺乳动物视觉皮层启发的神经模型研究,重点介绍了脉冲耦合神经网络(PCNN)的数学形式、变体和文献中的其他简化方法,并提出了在图像处理和计算机视觉领域的多个应用,包括图像分割、边缘检测、医学成像、图像融合、图像压缩、物体识别和遥感。这些应用的结果表明,PCNN 架构产生了对各种计算机视觉任务有用的感知信息。
Jun, 2024