# 热门搜索 #
搜索
智谱AI与清华大学联合发布第三代基座大语言模型ChatGLM3:代码、数学推理、AI Agent能力大幅增强,依然免费商用授权!
7930点击    2023-10-27 19:03

ChatGLM系列是智谱AI发布的一系列大语言模型,因为其优秀的性能和良好的开源协议,在国产大模型和全球大模型领域都有很高的知名度。今天,智谱AI开源其第三代基座大语言模型ChatGLM3-6B,官方说明该模型的性能较前一代大幅提升,是10B以下最强基础大模型!


ChatGLM3-6B项目下载地址一:https://huggingface.co/THUDM/chatglm3-6b-32k

ChatGLM3-6B项目下载地址二:https://github.com/THUDM/ChatGLM3


ChatGLM3-6B项目体验地址:https://ws-047b7c61-442a-4fca-a2b6-3c5e71a4819a-debug.rde-ws.gic-sq.lanrui-ai.com/

(该项目复现由 JunHowie 大神完成,想加微信的可以加官方客服 openai178,推给大家)


ChatGLM3简介


ChatGLM系列是国产大语言模型中最强大最著名的模型之一。在第一代ChatGLM-6B在2023年3月份推出,开源推出之后不久就获得了很多的关注和使用。3个月后的2023年6月份,ChatGLM2发布,再次引起了广泛的关注。


2023年的10月27日,智谱AI联合清华大学再次发布第三代基础大语言模型ChatGLM3系列。本次发布的第三代模型共包含3个:基础大语言模型ChatGLM3-6B-Base、对话调优大语言模型ChatGLM3-6B和长文本对话大语言模型ChatGLM3-6B-32K。


如下所示:


ChatGLM3-6B-Base:

基础大语言模型,预训练结果;

支持上下文 8K;

免费商用授权;


ChatGLM3-6B

基础大语言模型针对对话微调调优,适合对话;

支持上下文 8K;

免费商用授权;


ChatGLM3-6B-32K

对话调优的大语言模型,但是支持32K上下文

支持上下文 32K;

免费商用授权;


ChatGLM3-3B

对话微调版本,小规模参数,可以在手机端运行;

支持上下文 8K;

不开源;


ChatGLM3-1.5B

对话微调版本,小规模参数,可以在手机端运行;

支持上下文 8K;

不开源;行


需要注意的是,ChatGLM3的功能不仅仅局限于生成对话,在工具调优、prompt调优、代码执行等方面都有很大提升


ChatGLM3的性能结果


根据官方的描述,ChatGLM3的性能比第二大有大幅的提高。在各项评测中的得分均有大幅提升。官方甚至宣称:

ChatGLM3-6B-Base 具有在 10B 以下的基础模型中最强的性能。


具体来说,评测结果和提升结果如下:



上述只选取了部分的评测结果,可以看到,ChatGLM3在各方面都有较大的提升。


在DataLearnerAI的大模型评测综合排名中,ChatGLM3的得分也是十分优秀!下图是按照所有收集的重点模型和国产模型按照MMLU得分排序结果:



可以看到,即使按照MMLU排序,在所有规模的模型对比下,ChatGLM3-6B得分排序第9,但是前面8个模型最小的也是140亿参数规模的Qwen-14B,如果按照GSM8K排序,ChatGLM3-6B-Base甚至排到第三,超过了GPT-3.5的57.1分!十分恐怖。


不过,虽然官方强调,ChatGLM3系列的代码能力很强,但是目前还没有HumanEval的评分结果放出。


ChatGLM3的训练细节


虽然官方没有详细公布ChatGLM3的相关训练信息,但是也有一些基本的数据供大家参考。


首先是 ChatGLM3-6B 的基础模型的训练使用了更多且更加多样的数据,更充分的训练步数和合理的训练策略;


其次是ChatGLM3-6B针对Prompt设计做了提升,可以让模型在普通的对话外,对 Code Interpreter,Tool & Agent 等任务的输入支持更好。下图是一个案例:


  1. <|system|>
  2. You are ChatGLM3, a large language model trained by Zhipu.AI. Follow the user's instructions carefully. Respond using markdown.
  3. <|user|>
  4. Hello
  5. <|assistant|>
  6. Hello, I'm ChatGLM3. What can I assist you today?


最后,为了支撑更长的上下文,官方对位置编码进行了更新,并设计了更有针对性的长文本训练方法,在对话阶段使用 32K 的上下文长度训练。


ChatGLM3系列的其它能力


大语言模型卷到现在,大家已经不满足基本的对话能力了,对代码执行、接口调用、AI Agent都有很强的诉求。本次官方透露,ChatGLM3系列模型除了基本对话能力的提升外还有诸多支持:


  1. 更强的代码执行能力,即Code Interpreter,尽管官方没有公布ChatGLM3的代码评测结果,但是应该不差,ChatGLM3的代码增强模块 Code Interpreter 根据用户需求生成代码并执行,自动完成数据分析、文件处理等复杂任务;
  2. 网络搜索增强WebGLM,接入搜索增强,能自动根据问题在互联网上查找相关资料并在回答时提供参考相关文献或文章链接。
  3. 全新的 Agent 智能体能力:ChatGLM3 本次集成了自研的 AgentTuning 技术,AI Agent水平比第二代提升1000%,提一句,Agent能力非常依赖规划和推理,从公布的结果看,ChatGLM3在GSM8K等数学逻辑推理方面的评测结果已经超过GPT-3.5,因此对于Agent的支持理论上应该非常棒。
  4. 多模态能力,官方宣称多模态理解能力的CogVLM,看图识语义,在10余个国际标准图文评测数据集上取得SOTA;
  5. 端侧推理:ChatGLM3 本次推出可手机部署的端测模型 ChatGLM3-1.5B 和 ChatGLM3-3B,支持在手机端的调用,速度可以达到20 tokens/s,一般成年人阅读的速度是每秒2-5个单词,完全足够,而且官方宣称自己的ChatGLM3-1.5B和ChatGLM3-3B与ChatGLM2-6B水平差不多(即第二代)。


总结


ChatGLM系列是国产非常具有影响力的大语言模型系列,从3月份开源第一代到现在7个月之后迭代到第三代,发展十分迅猛。而且,在AI Agent、代码执行、多模态等方面都有非常好的布局和提升,十分值得大家关注。此外,友好的开源协议,免费的商用授权也是十分不错的。



文章来自 “ DataLearnerAI ”



关键词: ChatGLM3-6B , ChatGLM3 , 智谱AI
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

2
RAG

【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。

项目地址:https://github.com/microsoft/graphrag

【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。

项目地址:https://github.com/langgenius/dify


【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。

项目地址:https://github.com/infiniflow/ragflow/tree/main


【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目

项目地址:https://github.com/phidatahq/phidata


【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。

项目地址:https://github.com/TaskingAI/TaskingAI

3
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner

4
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0