- 基于集合的提示:可证明解决语言模型的序列依赖问题
这篇论文提出了一种技术,可以确保生成式语言模型在给定的子序列集合上不受顺序相关性的影响,从而消除顺序相关性。结果表明,该方法对预期的准确性影响较小,而且可以应用于任何基于 Transformer 的大语料库模型,对文本生成没有影响,进一步讨 - InstructPatentGPT: 使用人类反馈训练专利语言模型遵循指示
通过人类反馈学习强化学习模型,以提高生成专利权要求的语言模型被授予的可能性,并证明生成语言模型能够反映专利申请中的人类反馈或意图。
- 数理推理中的离群检测的轨迹波动
提出了一种基于轨迹的方法 TV score,通过使用轨迹的波动性进行数学推理中的离群数据检测,实验证明该方法在数学推理场景下优于传统算法,并可扩展到输出空间具有高密度特征的更多应用,如多项选择题。
- IJCAIECR-Chain: 通过推理链推进生成式语言模型以提高情感原因推理
通过逐步推理方法 (ECR-Chain) 以及促进模型优化的 few-shot prompting,本研究在生成式语言模型中引入情感生成过程的因果关系,并且能够在可解释的方式下成功进行情感因果推理。
- 编程作业中隐含的学生知识表征的解释
利用生成式大型语言模型的最新进展,我们通过引入 InfoOIRT 模型(一种信息正则化的开放性项目反应理论模型)对潜在的学生知识表示进行解释,以生成学生编写的开放性编程问题代码。通过在实际编程教育数据集上的实验,我们展示了 InfoOIRT - ATG:基于生成式语言模型的自动定理生成基准测试
自动生成定理是一个挑战,本文提出了一个基于自动化定理生成(ATG)的评估基准,以探究当前生成性语言模型(LMs)在生成新定理和可重复定理方面的能力,结果表明当前 LMs 仍有改进空间。
- AAAI生成人工智能伤害的心理社会影响
该研究探讨引起关注的生成式语言模型在教育领域可能产生的心理社会危害,分析了与学生课堂互动相关的 15 万个 100 字的故事中生成式语言模型所产生的角色人口统计学和再现伤害,强调了生成式人工智能工具在多样化社会环境中部署和使用时对于具有边缘 - 生成范式中的跨度提取评估:关于面向方面的情感分析的思考
在生成式语言模型和情感分析的领域中,针对现有的评估方法进行重新审视和重构,强调了针对生成式模型的复杂性,并提出了一份全面的指导方针以确保准确反映生成能力的情感分析评估。
- 优先噪声对生成式语言模型对齐性能的影响
本文提出了一种注入不同类型和量级噪声的偏好框架,并在两个任务(文摘和对话生成)中系统地研究了偏好噪声对齐性能的影响。我们发现偏好数据中噪声率的增加会导致对齐性能的显著下降,并提出基于置信度的数据过滤方法以减少噪声的影响。我们希望这项工作可以 - 从字节到俄罗斯优势:优化吉玛和米斯特拉用于乌克兰语表示
利用乌克兰数据集对开源 Gemme 和 Mistral 语言模型进行微调,以提高其语言能力,并与其他处理乌克兰语的模型进行基准比较。该研究旨在减少技术中的语言偏见,促进数字领域的包容性。通过透明且可复现的方法鼓励进一步的 NLP 研究与发展 - 通过模拟优化选择语言模型提示
基于模拟优化,提出了一个两阶段框架以实现生成语言模型的提示选择,该框架能够在评估和选择阶段中构建代表提示的中等维度向量的得分模型,并证明了该框架中的顺序评估过程的一致性。数值实验证明了此框架的有效性,为实施提供了实际指导。
- 自由放任的危害:生成式语言模型中的算法偏差
通过开放式提示,我们发现模型产生的文本在描绘边缘群体的身份时存在错误、隐含和刻板印象的问题,这些问题可能导致心理伤害和认知能力下降。
- 关于 GPT 模型的训练数据影响
研究了训练数据对 GPT 模型性能的影响,并提出了一种新颖的方法 GPTfluence,通过特征化模拟评估训练实例对 GPT 模型的影响,展示了对未见训练数据的鲁棒泛化能力。
- 通过单选问答通过生成式语言模型提升软件相关信息提取
本文描述了我们在软件提及消岐(SOMD)共享任务中的参与,重点是通过使用生成式语言模型(GLMs)和单选题答题来改善学术文本中的关系抽取。我们的方法优先使用 GLMs 的上下文学习能力,提取与软件相关的实体及其描述属性,例如分布信息。我们的 - 追索索偿:与生成语言模型对话
通过为毒性过滤设置动态阈值,我们提供了一种新的机制,使用户能够实现他们希望的预测,从而增加了与基线系统的交互中的机构性。一项初步研究支持我们提出的救济机制的潜力,表明与固定阈值毒性过滤模型输出相比,可用性有所改善。未来的工作应该探讨毒性评分 - 生成语言模型的多层解释
我们提出了一个名为 MExGen 的通用框架,可以扩展文本分类中的扰动解释方法(如 LIME 和 SHAP)以应对生成语言模型的挑战,该框架可用于不同的归因算法,并通过标量化器将文本映射到实数处理文本输出,同时采用多层级方法处理长输入,通过 - 领域特定性在语言模型和生物医学关系抽取的指导有多重要?
通过现有语言模型、测试四个数据集,我们的研究表明,在生物医学 NLP 任务(关系提取)中,虽然一般领域的模型通常优于生物医学领域的模型,但生物医学数据集上的 fine-tuning 可以与一般数据集 fine-tuning 达到类似的效果, - PromptKD:通过提示调整深度语言模型来提供适合学生的知识
最近大型语言模型(LLMs)的进展引发了对推断成本的担忧,加大了对模型压缩研究的需求。尽管知识蒸馏(KD)是一种突出的方法,但对于生成性语言模型(如 LLMs)的 KD 研究相对较少,而在分类模型的 KD 中表现出有希望的学生友好知识蒸馏方 - 模拟卡拉是有意识的异国情调
通过引用维特根斯坦的后期著作,本文试图解决对话代理人是否具有意识的问题,同时避免二元思维的陷阱。
- 生成跨模态检索:以检索和超越为目的的多模态语言模型中的图像记忆
构建在生成式语言模型基础上的多模态大型语言模型(MLLMs)拥有记忆和重新召回图像能力,介绍了一种基于生成式跨模态检索框架的方法,通过将图像存储在 MLLMs 中以实现记忆功能,并有效地进行跨模态检索。