- 树结构中的句子生成
通过生成具有树遍历顺序的目标句子的新方法,本研究旨在提高现有系统的性能。此外,还引入了一个名为 SenTree 的模块来生成近似二叉树,并提出了一个基于该方法的联合训练框架,结合生成对抗网络的内在机制。
- EMNLP基于实体挖掘的后期话语优化方法用于忠实的知识驱动对话
提出了一种名为 REM 的后期修饰方法,以增强生成的幻觉话语的质量和忠诚度,通过根据源知识对其进行修饰,减少了话语中的实体幻觉。
- AD-H:具有分层代理的自主驾驶
通过使用多模态大型语言模型(MLLMs)实现自动驾驶,连接高级指令和低级控制信号,形成多层次驱动系统 AD-H 提供了优秀的驾驶性能和普适性,充分发挥了 MLLM 在感知、推理和规划方面的潜力。
- ICML严格适当评分规则的语言生成
基于最大似然估计(MLE)的语言生成是文本生成的基本方法之一。本文提出了一种简单的策略,用于适应语言生成中的评分规则,并使用两种经典的严格适当评分规则 ——Brier 得分和 Spherical 得分进行训练,从而显著提高了模型的生成能力。
- 生成人工智能:系统综述和应用
人工智能与生成式人工智能的应用领域,特别是语言生成与伦理考虑的最新研究成果与未来发展轨迹的综合分析。
- 应用示范引导强化学习来对抗 LLM 中的奖励过度优化
利用人类示范和奖励模型重新校准奖励目标,通过最小化示范与语言模型的奖励之间的距离来避免对语言模型的奖励模型进行操纵和促进更自然、多样化的语言生成。
- 极限条件下的语言生成
使用基本规范并且不需要进一步的假设,我们的主要研究结果是针对每个可计数的候选语言列表,都存在一个能够在极限情况下生成的代理模型,与用于识别未知语言的语言学习模型产生截然不同的结果,这表明识别语言和从中生成语言是根本不同的问题。
- 我的答案是 C”:指令调整的语言模型中的首词概率与文本答案不匹配
对于自动生成语言模型 (LLMs),评估其面临挑战的一个常见方法是使用多项选择题 (MCQ) 来限制回应的范围,通过排名候选答案首个 token 预测的对数概率来评估模型。然而,由于模型存在多样的回应方式,例如以 “当然” 开始或拒绝回答, - SimLM:语言模型能否推断物理系统的参数?
大规模机器学习模型在语言的通用理解、翻译和生成方面的最新进展,给医学、机器人学和科学探索等多个领域带来了影响。然而,这些大语言模型因为其训练所使用的大型语料库的特点,存在无法处理一些特定问题,如高级数学。本文针对大语言模型无法进行物理任务推 - ICML可微树操作促进组合泛化
介绍一种不同 iable Tree Machine(DTM)架构,利用可不同 iable 的树形解释器将高级符号树操作编译为张量上的子符号矩阵操作,用于结构到结构转换任务,从而实现了更好的性能。
- 一种生成预训练变压器的相干波动态和语言生成
研究了波动力学在小型 GPT 中的表现,发现波动动力学提供了一种内在的振荡模式,同时具有上下文感知的可塑性和表达能力,在分析波动模式、相干性和聚类的基础上,为人们提供了系统地识别和解释隐藏状态通道功能的方法。此外,研究了在文本序列生成中不同 - HistAlign:通过与历史对齐改进语言生成中的上下文依赖
本文提出 HistAlign,它是一种新的训练方法,可以提高语言模型的上下文依赖性,优化 Cache-LMs 的性能,提高语言生成任务的准确性和连贯性。
- 稳定熵假设和熵感知解码:鲁棒自然语言生成的分析与算法
本论文提出,当语言生成模型用于文本完成,故事生成或对话建模等开放性文本生成问题时,最先进的语言生成模型可能会退化。我们发现近似平坦熵带内的生成更为 “人类化”,而模型违反熵的这些限制通常会导致退化。因此,我们提出了一种基于熵的解码算法,以生 - ACL大规模跨语言研究:视觉限制对语言选择描述的影响
本研究通过对四种语言中的五种语言特征进行大规模、多语言的调查研究,并给出了一种新颖的方法,通过分析 600k 张图像和 3M 张图像的标题,证明了视觉背景对语言使用的影响,并在数字表达的研究中发现了不同视觉条件下语言表达的相似模式,为语言生 - GanLM: 带有辅助鉴别器的编码器 - 解码器预训练
本文提出了一种名为 GanLM 的基于生成对抗网络(GANs)的编码器 - 解码器预训练模型,利用辨别器和训练目标:替换标记检测和替换标记去噪,有选择地使用去噪数据以提高语言理解和生成能力,在语言生成基准测试中取得了最先进的性能。
- 语言生成模型的自然偏好
本文提出了一种以 unigram 分布为先验知识的初始化模型权重的方法,在神经语言生成模型中应用该方法可提高学习效率、整体性能以及鼓励模型专注于非频率相关的语言特性。
- 基于数据驱动的噪声自适应话语生成与语言修改的研究
该研究通过进行语音知觉实验,提出了一种针对嘈杂环境下语音生成的优化方法,提出基于可听度的复述排序模型,相对提高了 31.37% 的性能表现,从而在 SNR-5dB 下提高了 33% 的可懂度。
- ACL语言模型解码作为似然度 - 效用匹配
这篇论文提出了一种消减可能存在的语言生成模型中的似然度与任务特定效用误差的分类方法,并分析了该方法在不同任务中的可行性,并提供了一组决策根据,决定选择哪种解码算法。
- ContraGen:用于因果语言模型的有效对比学习
本文提出了一种名为 ContraGen 的对比学习框架,用于解决语言生成过程中的表示限制问题,该框架可以显著提高表征的均匀性和区分性,改善语言理解和源代码生成的表现。
- 用于字到句的视觉语义相似度在标题生成的应用:得到的经验教训
本文提出一种改进图像 - 字幕生成系统的方法,通过从视觉上下文的角度修订语言生成输出的 beam search,采取视觉语义量化概念,在单词和句子级别上匹配与图像相关的信息来选择最相关的输出作为字幕。该方法可作为后处理方法应用于任何字幕系统