- PL-MTEB:波兰大规模文本嵌入基准
该研究介绍了波兰大规模文本嵌入基准(PL-MTEB),它是一个包含 28 个不同自然语言处理任务的全面基准,涉及五种任务类型。研究人员通过波兰 NLP 社区先前使用的数据集对这些任务进行了适应。此外,研究人员创建了一个名为 PLSC(波兰科 - EmoMix-3L: 孟加拉 - 英 - 印度语情感检测的代码混合数据集
本文介绍了 EmoMix-3L,这是一个包含来自三种不同语言的代码混合数据的新颖多标签情感检测数据集。我们在 EmoMix-3L 上尝试了几种模型,并报告称 MuRIL 在该数据集上的表现优于其他模型。
- 利用知识图谱为涉及长尾事实的问答任务提供大型语言模型的引导
大型语言模型在各种自然语言处理任务中表现出色,但在处理需要广泛、现实世界知识的任务,特别是那些涉及长尾实体的任务时,仍然存在困难。为了解决这个问题,本研究分析了不同类型的非参数化知识对语言模型的影响,其中包括文本片段和知识图谱。通过创建一个 - ICML可切换的决策:动态神经生成网络
通过动态分配计算资源来加速推理,我们的动态神经生成网络在问题回答、摘要和分类基准测试中表现出少量的计算成本,同时保持相同的准确性。
- ACL比较 LLM 提示与跨语言转移性能对土著和低资源巴西语言的影响
大型语言模型在低资源语言上的自然语言处理任务上表现较差,并提供了错误分析和实例解释。
- COLING模型化正字变化提升尼日利亚商业英语的 NLP 性能
试验展示了将来自其他语料库的真实文本与合成的正字法变异相结合以增强训练数据的益处,在情感分析方面效果提升了 2.1 分,英文翻译方面效果提升了 1.4 BLEU 分。
- ChatGPT 真实能力调查
我们在这篇论文中调查了 ChatGPT 在七个自然语言处理任务领域的真实性能水平,回顾了 ChatGPT 的社会影响和安全问题,并强调了其评估中的关键挑战和机遇。我们希望我们的调查能够揭示 ChatGPT 的黑盒特性,以免研究人员被其表面生 - 使用错误注释引导大型语言模型进行机器翻译
通过使用 Multidimensional Quality Metric (MQM) 注释中的外部反馈来引导大型语言模型 (LLMs) 自动对机器翻译进行后编辑,以提高翻译质量。使用 LLaMA-2 模型,通过改变反馈的特性,我们考虑了不同 - 超越一刀切:多领域、多任务的嵌入模型选择框架
提出了一个系统化的方法,以帮助选择最有效的嵌入模型进行自然语言处理(NLP)任务的开发框架,解决了专有和开源编码器模型的泛滥所带来的挑战。
- 忠诚与可信性是否相冲突?在自然语言处理任务中的可解释人工智能的经验研究
通过对情感分析、意图检测和主题标记等三个自然语言处理任务中选定的易解释算法与专家解释方法的综合定量比较,我们的研究表明,传统的基于扰动的方法 Shapley value 和 LIME 可以同时实现更高的准确度和用户可访问性,与模型的推理过程 - 词梯:一款语义数据收集的移动应用程序
Word Ladders 是为收集语言数据而开发的免费移动应用程序,通过语义关系的分类包含来构建相关单词列表,同时具有 nlp 任务和认知科学开放问题的预期结果和应用。
- 用于联邦基础模型的双个性化适配器
提出了一个新的设置,称为测试时个性化,其中不仅专注于目标的本地任务,而且扩展到展示测试时分布偏移的其他任务。为了解决这个新设置中的挑战,提出了一个名为 FedDPA 的双向个性化适配器架构,包括全局适配器和局部适配器,用于解决测试时分布偏移 - ACL无任务依赖的检测器用于插入式背门攻击
文本后门攻击是重要的安全威胁。当前的检测方法通常依赖于中间特征表示或重构潜在触发器,任务特异性和在问题回答和命名实体识别等任务中的效果较差。我们介绍了 TABDet(任务不可知后门检测器),一种用于后门检测的开创性的任务不可知方法。TABD - ACL语言修正流:通过概率流推进扩散语言生成
Language Rectified Flow 是一种基于标准概率流模型改进的方法,通过学习(神经)常微分方程模型在源分布和目标分布之间进行转换,提供了生成建模和领域转换的统一有效解决方案。实验证明该方法在多个 NLP 任务中能够持续优于其 - COLINGNSINA:斯巴达的新闻语料库
本研究介绍了 NSINA,这是一个由 500,000 篇流行信拉语新闻网站上的文章构成的全面新闻语料库,并提出了三个自然语言处理任务:新闻媒体识别、新闻类别预测和新闻标题生成,旨在解决适用 LLMs 到信拉语的挑战,并为改进信拉语自然语言处 - LlamBERT: NLP 中的大规模低成本数据标注
LlamBERT 利用 Llama 2 和 GPT-4 等大型语言模型标记一小部分大型未标记数据库,通过结果对 BERT 和 RoBERTa 等 Transformer 编码器进行微调,以提高成本效益。
- AraPoemBERT:用于阿拉伯诗歌分析的预训练语言模型
介绍了 AraPoemBERT,这是一个在阿拉伯诗歌文本上进行预训练的阿拉伯语言模型,通过在多个与阿拉伯诗歌相关的 NLP 任务上展示其有效性,该模型在大多数下游任务中表现出色,取得了最新成果的结果。
- 翻译是唯一需要吗?关于使用大型语言模型解决多语言任务的研究
我们提倡更多的努力来开发强大的多语种语言模型,而不仅仅是以英语为中心的语言模型。
- 自动医疗记录生成的持续预训练语言模型方法
LLMs 是 NLP 任务的革命性技术,但是像 GPT-4 这样功能强大的 LLM 对于大多数特定领域的场景来说价格过高。我们提出了第一个基于 13B Llama2 的连续训练的 LLM,该模型专门用于医学对话,并通过自动撰写进行了衡量。结 - COLING运用大型语言模型和主动学习演化知识蒸馏
提出了 EvoKD:演化知識蒸餾方法,利用主動學習的概念提升大型語言模型的數據生成過程,同時改善小型領域模型的任務能力。實驗和分析表明 EvoKD 在不同的自然語言處理任務,如文本分類和命名實體識別方面具有有效性。