CoT-BERT: 通过思维链增强无监督句子表示
本文提出使用对比学习的方法,通过自我指导来改善 BERT 的句子表示质量,并将其应用于句子表示学习中。实验证明,与竞争对手的基线相比,我们的方法在广泛的句子相关任务上更加有效,并且在推理时效率高且鲁棒性强。
Jun, 2021
本文提出了一种对 BERT 进行自监督 fine-tune 的对比学习框架 ConSERT,通过利用无标签文本解决 BERT 生成句子表示时的崩溃问题,进而提高了 sentence representations 的应用性能,实验结果表明在 STS 任务上优于之前的 SOTA 达 8%,并且在与 1000 份样本的情况下表现稳健。
May, 2021
该论文提出了 Visual CoT,一种利用多模态大型语言模型(MLLMs)的推理能力的新型流程,通过结合可解释性认知链条(CoT)推理来处理复杂的视觉输入,并提供可解释的思路。我们收集并引入了 Visual CoT 数据集,该数据集包含 373k 个问题 - 答案对,通过中间边界框突出显示回答问题所必要的关键区域,能够评估在需要特定局部区域识别的场景中的 MLLMs 的性能。大量实验证明了我们的框架的有效性,并为更好的推理策略提供了启示。Visual CoT 数据集、基准和预训练模型可用于促进相关方向的进一步研究。
Mar, 2024
本文提出了一种新颖的表格格式 CoT 提示方法,命名为 Tab-CoT 方法,可以在高度结构化的方式下明确地建模复杂的推理过程,通过在一系列推理任务中的实验证明了该方法的强大的零射击和少射击能力。
May, 2023
本文提出了一种新的对比学习方法 PromptBERT,用于改进句子表示的效果,在分析当前 BERT 句子嵌入的缺陷后,通过两种提示表示方法和三种提示搜索方法实现更好的句子嵌入,同时通过模板去噪技术,提出了一种新的无监督训练目标,大大缩短了有监督和无监督设置之间的性能差距,实验证明了方法的有效性。
Jan, 2022
本文介绍 DeCLUTR: Deep Contrastive Learning for Unsupervised Textual Representations,是一种无监督的学习通用语句嵌入的方法,其优于仅仅使用大规模数据集。该方法扩展了基于 Transformer 的语言模型的预训练,可以在大量的未标注培训数据下达到可监管培训的质量水平,这个解决方案可以应用于没有标注数据的语言和领域。该研究的代码和预训练模型是公开的,可以轻松地适应新的领域或用于嵌入以前不见过的文本。
Jun, 2020
本文研究了对比学习中存在的偏见问题,提出了一种名为 DebCSE 的新型对比框架,通过逆倾向加权抽样方法选择高质量的正负样本对,以消除各种偏见的影响,从而提高句子嵌入的质量。在语义文本相似性基准测试中,DebCSE 的平均 Spearman 相关系数为 80.33%,显著优于最新的最先进模型。
Sep, 2023
本文提出了一种使用对比学习进行监督学习 Fine-tuning 预训练 BERT 模型以创建高效句子嵌入的新方法,相比于只使用基于交叉熵的监督学习的当前最先进方法 SBERT,我们的方法可以在句子转换和语义文本相似度基准测试上改进 2.8%和 1.05%。
Jun, 2021
社交媒体上的立场检测对大型语言模型(LLMs)来说是具有挑战性的,因为在线对话中的新兴俚语和口头语通常包含深层次的隐含立场标签。在这项研究中,我们通过引入 COT 嵌入来改进了 COT 提示在立场检测任务上的性能,将 COT 推理嵌入到传统的基于 RoBERTa 的立场检测流程中,从而解决了隐含立场识别的问题。我们的分析表明:1)文本编码器可以利用 COT 推理,即使存在轻微错误或幻觉,否则会扭曲 COT 的输出标签。2)当样本的预测严重依赖于领域特定的模式时,文本编码器可能会忽视误导性的 COT 推理。我们的模型在多个社交媒体收集的立场检测数据集上实现了 SOTA 性能。
Oct, 2023