ChatGLM系列是智谱AI发布的一系列大语言模型,因为其优秀的性能和良好的开源协议,在国产大模型和全球大模型领域都有很高的知名度。今天,智谱AI开源其第三代基座大语言模型ChatGLM3-6B,官方说明该模型的性能较前一代大幅提升,是10B以下最强基础大模型!
ChatGLM3-6B项目下载地址一:https://huggingface.co/THUDM/chatglm3-6b-32k
ChatGLM3-6B项目下载地址二:https://github.com/THUDM/ChatGLM3
ChatGLM3-6B项目体验地址:https://ws-047b7c61-442a-4fca-a2b6-3c5e71a4819a-debug.rde-ws.gic-sq.lanrui-ai.com/
(该项目复现由 JunHowie 大神完成,想加微信的可以加官方客服 openai178,推给大家)
ChatGLM系列是国产大语言模型中最强大最著名的模型之一。在第一代ChatGLM-6B在2023年3月份推出,开源推出之后不久就获得了很多的关注和使用。3个月后的2023年6月份,ChatGLM2发布,再次引起了广泛的关注。
2023年的10月27日,智谱AI联合清华大学再次发布第三代基础大语言模型ChatGLM3系列。本次发布的第三代模型共包含3个:基础大语言模型ChatGLM3-6B-Base、对话调优大语言模型ChatGLM3-6B和长文本对话大语言模型ChatGLM3-6B-32K。
如下所示:
ChatGLM3-6B-Base:
基础大语言模型,预训练结果;
支持上下文 8K;
免费商用授权;
ChatGLM3-6B
基础大语言模型针对对话微调调优,适合对话;
支持上下文 8K;
免费商用授权;
ChatGLM3-6B-32K
对话调优的大语言模型,但是支持32K上下文
支持上下文 32K;
免费商用授权;
ChatGLM3-3B
对话微调版本,小规模参数,可以在手机端运行;
支持上下文 8K;
不开源;
ChatGLM3-1.5B
对话微调版本,小规模参数,可以在手机端运行;
支持上下文 8K;
不开源;行
需要注意的是,ChatGLM3的功能不仅仅局限于生成对话,在工具调优、prompt调优、代码执行等方面都有很大提升
根据官方的描述,ChatGLM3的性能比第二大有大幅的提高。在各项评测中的得分均有大幅提升。官方甚至宣称:
ChatGLM3-6B-Base 具有在 10B 以下的基础模型中最强的性能。
具体来说,评测结果和提升结果如下:
上述只选取了部分的评测结果,可以看到,ChatGLM3在各方面都有较大的提升。
在DataLearnerAI的大模型评测综合排名中,ChatGLM3的得分也是十分优秀!下图是按照所有收集的重点模型和国产模型按照MMLU得分排序结果:
可以看到,即使按照MMLU排序,在所有规模的模型对比下,ChatGLM3-6B得分排序第9,但是前面8个模型最小的也是140亿参数规模的Qwen-14B,如果按照GSM8K排序,ChatGLM3-6B-Base甚至排到第三,超过了GPT-3.5的57.1分!十分恐怖。
不过,虽然官方强调,ChatGLM3系列的代码能力很强,但是目前还没有HumanEval的评分结果放出。
虽然官方没有详细公布ChatGLM3的相关训练信息,但是也有一些基本的数据供大家参考。
首先是 ChatGLM3-6B 的基础模型的训练使用了更多且更加多样的数据,更充分的训练步数和合理的训练策略;
其次是ChatGLM3-6B针对Prompt设计做了提升,可以让模型在普通的对话外,对 Code Interpreter,Tool & Agent 等任务的输入支持更好。下图是一个案例:
最后,为了支撑更长的上下文,官方对位置编码进行了更新,并设计了更有针对性的长文本训练方法,在对话阶段使用 32K 的上下文长度训练。
大语言模型卷到现在,大家已经不满足基本的对话能力了,对代码执行、接口调用、AI Agent都有很强的诉求。本次官方透露,ChatGLM3系列模型除了基本对话能力的提升外还有诸多支持:
ChatGLM系列是国产非常具有影响力的大语言模型系列,从3月份开源第一代到现在7个月之后迭代到第三代,发展十分迅猛。而且,在AI Agent、代码执行、多模态等方面都有非常好的布局和提升,十分值得大家关注。此外,友好的开源协议,免费的商用授权也是十分不错的。
文章来自 “ DataLearnerAI ”
【开源免费】Browser-use 是一个用户AI代理直接可以控制浏览器的工具。它能够让AI 自动执行浏览器中的各种任务,如比较价格、添加购物车、回复各种社交媒体等。
项目地址:https://github.com/browser-use/browser-use
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md
【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。
项目地址:https://github.com/microsoft/graphrag
【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。
项目地址:https://github.com/langgenius/dify
【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。
项目地址:https://github.com/infiniflow/ragflow/tree/main
【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目
项目地址:https://github.com/phidatahq/phidata
【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。
项目地址:https://github.com/TaskingAI/TaskingAI
【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。
项目地址:https://github.com/InternLM/xtuner
【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。
项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md
在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0