SeqGPT:一个开箱即用的开放领域序列理解大语言模型
通过综合包含由人类编写的句子和由大型语言模型改编的句子的文档,本文首次介绍了一个句子级别的人工智能生成文本检测挑战,并提出了一种基于序列 X(检查)GPT 的新方法,利用白盒大型语言模型的对数概率列表作为句子级别人工智能生成文本检测的特征。实验证明,我们的方法不仅在句子级和文档级人工智能生成文本检测挑战中显著超越基准方法,而且具有强大的泛化能力。
Oct, 2023
本文介绍了一种基于数据驱动和透明资源的开源金融领域大型语言模型(FinGPT),通过自动数据处理管道和低秩度量适应技术,为研究人员和从业者提供访问、透明的资源,并展示了机器人顾问、算法交易和低代码开发等潜在应用。
Jun, 2023
通过使用 Large Language Models (LLMs),我们提出了 ModelGPT 框架,以满足用户的特定需求,并以更快的速度生成定制化的 AI 模型,以实现更加便利和用户友好的人工智能模型。
Feb, 2024
AutoML-GPT 框架结合了多种工具和库,通过对话界面,用户可以指定需求和约束条件,实现数据预处理、特征工程和模型选择等操作,从而显著减少机器学习任务所需的时间和工作量。它能充分利用大型语言模型中的知识,为模型训练过程中的常见挑战提供宝贵见解和有效解决方案。
Sep, 2023
LawGPT 是第一个专门为中国法律应用设计的开源模型,通过在大规模中国法律文件上进行法律导向的预训练和法律指导下的精细调优,LawGPT 在下游法律任务的表现优于开源模型 LLaMA 7B。
Jun, 2024
通过利用大语言模型,该研究提出了一种自主注释方法,不仅高效而且适用于资源有限的语言,同时构建了一个图片字幕数据集并公开了源代码供进一步研究和可复现性。
Feb, 2024
本文介绍了两种自回归 GPT 类模型,使用维基百科和 Colossal Clean Crawled Corpus 训练了 60 种语言、25 种语言系的搜索,展示了多种任务上的表现,包括分类、生成、序列标记和知识探测,在多语种任务上有着与 Facebook 最近发布的 XGLM 模型相媲美的表现。
Apr, 2022
TechGPT-2.0 是一个项目,旨在增强大型语言模型在知识图谱构建任务中的能力,包括命名实体识别(NER)和关系三元组抽取(RTE)任务。此外,它也是一个面向中国开源模型社区的可访问的 LLM。
Jan, 2024
AcademicGPT 是一个专为学术研究而设计的模型,通过从学术论文、论文、某些学术领域内容、高质量的中文数据等中进行持续训练,展示了其从广泛知识能力、中文能力到学术能力的各项实用能力和多个领域特定的应用。
Nov, 2023
CourseGPT-zh 是一种面向课程的教育 LLM,支持定制化和低成本部署,并通过高质量的问答语料蒸馏框架和离散提示优化方法来提高响应质量,具有强大的专业能力。
May, 2024