BriefGPT.xyz
大模型
Ask
alpha
关键词
logical relationships
搜索结果 - 4
信息重组改善大型语言模型推理能力
提出了一种信息重新组织(InfoRE)方法,通过在推理之前对上下文内容进行重新组织处理,从而增强了大型语言模型(LLMs)的推理能力。在各种上下文感知的多跳推理任务中,通过零射击设置,我们实验评估了该方法在 Llama2-70B、GPT-3
→
PDF
2 months ago
EMNLP
解释、编辑、生成:为多跳事实验证的理由敏感的反事实数据增强
论文提出了一种理性敏感的方法来生成语言多样且标签翻转的反事实数据,同时保持逻辑关系,并通过检查和过滤模块对反事实数据进行规范化,实验结果表明该方法优于基准模型,并且能够生成语言多样的反事实数据而不破坏其逻辑关系。
PDF
8 months ago
教模型在理解文档后回答问题
提出了一种两阶段知识蒸馏方法,通过将 MRC 任务分为两个单独阶段教导模型更好地理解文档,实验结果表明,使用该方法装备的学生模型具有显著的改进,证明了该方法的有效性。
PDF
a year ago
探究文本蕴涵数据集中的偏见
本研究分析了 SNLI 和 MultiNLI 数据集中逻辑关系的数据偏差程度及其影响,并提出一种简单的方法来降低数据集中的数据偏差。我们发现仅对 SNLI 数据集中的假设进行分类,就能产生 64% 的准确率。
PDF
5 years ago
Prev
Next