- 基于 LLM(GPT-3)的情感分析的优化技术
本论文旨在探索基于大型预训练语言模型(如 GPT-3)的情感分析优化技术,以提高模型性能和效果,并进一步促进自然语言处理(NLP)的发展。通过介绍情感分析的重要性和传统方法的局限性,介绍了 GPT-3 和微调技术,并详细解释了它们在情感分析 - 比较 GPT-4 与 Chat-GPT 在心理健康护理中的功效:对大型语言模型进行盲评估以支持心理辅导
该研究比较了两个大型语言模型 GPT-4 和 Chat-GPT 在回应 18 个心理提示方面的表现,以评估它们在心理健康护理环境中的潜在适用性。结果显示 GPT-4 在生成临床相关和富有同理心的回应方面更有效,提供更好的支持和指导。这项研究 - ACL通过混合自然语言处理方法促进意见多样性
现代民主面临公民参与度下降的关键问题。网络讨论论坛是增强公民参与的重要途径。该研究提议通过自然语言处理结合人工智能技术解决在线大规模讨论中的挑战,并研究这些技术能在在线讨论中揭示的个人观点。我们提出了一个由人工智能和大型语言模型组成的三层层 - 文本生成可解释性中的挑战与机遇
解释性在自然语言处理中的必要性随着大型语言模型的突出地位的不断提升而增加。该论文概述了在属性解释性方法的开发和评估过程中出现的 17 个挑战,包括词条化、定义解释相似性、确定词条重要性和预测变化度量、人类干预的水平以及适合的测试数据集的创建 - 构建 BPE 分词 DFA
给出并分析了一种用于有效构建确定性有限自动机的算法,该算法旨在直接处理由流行的字节对编码技术生成的标记化文本,从而可以将许多现有的技术和算法应用于标记化案例,例如模式匹配、标记化词典的等价检查和以各种方式组合标记化语言。
- 人力资源应用的自然语言处理挑战与机遇:一篇讨论文
近十年来,在机器学习和自然语言处理领域取得了巨大进展,为招聘和人力资源管理等潜在应用领域开辟了广阔的前景。我们回顾了文本分析在人力资源 / 人事管理领域中的用例,包括已实现和潜在但尚未实施的用例,并分析了其中的机会和风险。
- 意大利语的先进基于自然的交互:LLaMAntino-3-ANITA
为了推进意大利语的自然语言处理,我们引入了一种基于新型 Meta LLaMA-3 模型的最先进的大型语言模型(LLM): LLaMAntino-3-ANITA-8B-Inst-DPO-ITA。我们使用英语和意大利语语料库上的监督微调(SFT - 加纳自然语言处理概览:首次观察
该研究首次对关注加纳语言的自然语言处理 (NLP) 研究进行了广泛调查,识别了所采用的方法、数据集和技术,并创建了详细的路线图,概述了挑战、最佳实践和未来方向,旨在提高研究人员的可访问性。该工作为加纳的 NLP 研究提供了基础资源,并强调了 - 使用人工智能语言模型的波斯数字人文研究机会:以福鲁格・法鲁兹卡德为案例研究
该研究探讨了先进的自然语言处理(NLP)和人工智能(AI)技术在分析和解释波斯文学方面的应用,重点关注福鲁赫・法洛克扎德的诗歌。利用计算方法,旨在揭示波斯诗歌中的主题、风格和语言模式。本研究采用了包括基于变压器的语言模型在内的 AI 模型, - 自然语言处理对同行评审有何用处?
科学文章数量快速增长,对其进行质量控制对科学家和大众利益至关重要。由于同行评审往往困难、耗时且容易出错,自然语言处理(NLP)在改进同行评审方面具有巨大潜力。我们的论文旨在为未来的 NLP 同行评审努力奠定基础,讨论了同行评审的一般过程,以 - 基于电子健康记录和机器学习的脑卒中患者精准康复
通过统计分析及机器学习方法,我们研究了康复运动对中风患者后期功能能力的改善,以及对功能能力改善的预测性。我们使用了患者康复运动和人口统计信息记录在非结构化电子健康记录(EHRs)数据和自由文本康复疗程笔记的数据集,共收集了来自匹兹堡大学医学 - 弗拉门戈流派的计算词法分析
通过自然语言处理和机器学习,对 2000 多首弗拉门戈歌词进行计算分析。使用多项式朴素贝叶斯分类器,我们发现不同风格间的词汇变化可以准确地识别独特的弗拉门戈风格。此外,我们还通过度量风格间的距离进行网络分析,揭示了弗拉门戈风格之间的关系。我 - ChatSOS:增强安全工程的矢量数据库生成问答助手
通过开发一个向量数据库,该研究证明外部数据库对大型语言模型具有补充作用,提高了可靠性、准确性和全面性,并改善了回答的适应性和解释能力,展示了大型语言模型在安全工程中处理专业问题的潜力,为更广泛的应用奠定了基础。
- ACL为印度语言优化预训练的命名实体识别模型
对印度语言进行多语言命名实体识别的挑战分析及旨在应对其的技术的提出。同时,提供了包括两个主要印度语言家族中四种印度语言在内的人工标注命名实体语料库,并在该数据集上对多语言模型进行了微调,平均 F1 得分达到 0.80。在印度语言的完全未见基 - 基于零样本下的零模型向导的文本反事实生成
通过全面的自然语言处理(NLP)下游任务中的实验证明,最近大型语言模型(LLMs)作为零 - shot 反事实生成器在评估和解释黑盒 NLP 模型方面具有高效性。
- ICML字符级对抗攻击的重新审视
通过引入 Charmer 方法,本研究在自然语言处理领域中的对抗攻击达到了高攻击成功率,生成高度相似的对抗性样本,并在 BERT 和 Llama 2 等模型上进行了测试,相较于之前的方法,在 BERT with SST-2 上提高了攻击成功 - ICLRSign2GPT:利用大型语言模型进行无术语手语翻译
利用大规模预训练视觉和语言模型通过轻量级适配器实现无语言标注的手语翻译的新型框架 Sign2GPT,在两个公共基准手语翻译数据集上评估并取得明显优于现有技术的无语言标注翻译性能提升。
- 草图然后生成:通过以语言为导向的代码草图,提供增量用户反馈和引导 LLM 代码生成
使用语言导向的代码草稿提供即时且逐步的反馈,从而提高人工与大型语言模型之间的交互效果。该方法通过利用提示中固有的语言结构和经典的自然语言处理技术,将提示转化为代码草稿,并作为中间占位符,预览预期的代码结构,引导大型语言模型生成期望的代码。
- 针对检索任务的细化联合文本和源代码嵌入优化与参数高效微调
基于 Transformer 模型的代码 - 文本检索问题上,我们提出了一种使用参数高效微调技术的微调框架,并采用对比学习目标来改善 Transformer 模型学习到的双模态表示质量。通过在两个数据集上对 CodeT5 + 模型进行全面实 - LingML: 基于语言的机器学习技术用于增强假新闻检测
通过在机器学习中引入语言学知识,本研究提出了一种新的方法 LingML 用于检测假新闻,实验证明该方法的效果非常好,尤其当与自然语言处理的大规模机器学习模型结合时,能够超越现有的方法,为有效和高效的假新闻检测开辟了新的途径。