智谱 AI 和清华大学 KEG 实验室的新一代对话预训练模型 ChatGLM 3 部署

# 背景

ChatGLM3-6B

ChatGLM3 是智谱AI和清华大学 KEG 实验室联合发布的新一代对话预训练模型。

ChatGLM3-6B 是 ChatGLM3 系列中的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM3-6B 引入了如下特性:

  • 更强大的基础模型: ChatGLM3-6B 的基础模型 ChatGLM3-6B-Base 采用了更多样的训练数据、更充分的训练步数和更合理的训练策略。在语义、数学、推理、代码、知识等不同角度的数据集上测评显示,ChatGLM3-6B-Base 具有在 10B 以下的基础模型中最强的性能。
  • 更完整的功能支持: ChatGLM3-6B 采用了全新设计的 Prompt 格式,除正常的多轮对话外。同时原生支持工具调用(Function Call)、代码执行(Code Interpreter)和 Agent 任务等复杂场景。
  • 更全面的开源序列: 除了对话模型 ChatGLM3-6B 外,还开源了基础模型 ChatGLM3-6B-Base、长文本对话模型 ChatGLM3-6B-32K。以上所有权重对学术研究完全开放,在填写问卷进行登记后亦允许免费商业使用。

# 开源地址

https://github.com/THUDM/ChatGLM3

# 部署

# 视频演示

我做了一个简单的 DEMO 演示视频,可以先进行观看

https://www.bilibili.com/video/BV1Lg4y1k7Yy/

# 硬件需求

要在本地机器完全单机离线部署完整的 ChatGLM 3,你需要至少 13GB 显存的 GPU,整个 ChatGLM3-6B 的模型文件权重大小为 13G,当然也可以对模型进行量化,使得在小于 6GB 显存的显卡上也能运行,代价是微弱的性能损失。

# 软件需求

  • 操作系统:Windows 10/11, Linux, macOS (MPS 加速需要 >= 12.3)
  • Python:>=3.10

注意:在 macOS 上支持使用 MPS 后端的 AMD 显卡和 Apple Sillicon 的加速,配置教程会在后文给出

# 部署

  1. 创建虚拟环境并且进入虚拟环境
1
2
3
4
5
6
7
8
9
mkdir ~/.virtualenvs && cd ~/.virtualenvs
python -m venv chatglm3-venv

# Windows
./chatglm3-venv/Scripts/Activate.ps1  # Powershell
./chatglm3-venv/Scripts/activate.bat  # CMD

# Linux / macOS
source ./chatglm3-venv/bin/activate
  1. 根据 PyTorch 官网 安装 PyTorch,正确安装才能开启 GPU 加速
1
2
3
4
5
# Windows
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

# macOS / Linux
pip install torch torchvision torchaudio
  1. 克隆仓库并安装依赖
1
2
3
4
cd ~/Workspace  # 切换到你的工作空间
git clone https://github.com/THUDM/ChatGLM3
cd ChatGLM3
pip install -r requirements.txt  # 安装仓库依赖

transformers 库版本应该 4.30.2 以及以上的版本 ,torch 库版本应为 2.0 及以上的版本,以获得最佳的推理性能。

  1. 手动下载模型,如果你有一个良好(魔法)的网络环境,可以跳过这一步,直接到第 5 步,模型会在那个阶段自动下载。
 1
 2
 3
 4
 5
 6
 7
 8
 9
10
git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git  # 国内网络可以跑满

# 因为是手动下载的模型,需要设定环境变量告诉程序模型在哪,如果你网络环境好,那么不需要设置,程序启动时会自动下载

# Windows
$env:MODEL_PATH="D:\chatglm3-6b"  # Powershell
set MODEL_PATH="D:\chatglm3-6b"   # CMD

# Linux / macOS
export MODEL_PATH="/opt/models/chatglm3-6b"
  1. 运行 DEMO
1
2
3
4
5
6
7
cd composite_demo

# 安装 DEMO 所需的依赖
pip install -r requirements.txt

# 如果要使用 Code Interpreter 还需要安装 Jupyter 内核
ipython kernel install --name chatglm3-demo --user
  1. 如果你的显存不达到要求,你可以略微修改代码,量化模型,或者在CPU上运行,当然你可以跳过这一步。

使用代码编辑器打开 composite_demo 下的 client.py文件,定位到 150 行,以下是原始代码

1
2
3
4
5
6
self.model = (
    AutoModel.from_pretrained(
        MODEL_PATH,
        trust_remote_code=True,
        device_map="auto"
    ).eval())

.eval前面加上量化方法,如下

1
2
3
4
5
6
self.model = (
    AutoModel.from_pretrained(
        MODEL_PATH,
        trust_remote_code=True,
        device_map="auto"
    ).quantize(4).eval())

使用 4-bit 量化的情况下,尽管会带来一定的性能损失,但仍然能够进行自然流畅的生成。

或者你可以使用 CPU,但是推理速度会更慢,需要大概 32GB 内存

1
2
3
4
5
6
self.model = (
    AutoModel.from_pretrained(
        MODEL_PATH,
        trust_remote_code=True,
        device_map="auto"
    ).float().eval())

对于搭载了 Apple Silicon 或者 AMD GPU 的 Mac,可以使用 MPS 后端来在 GPU 上运行 ChatGLM3-6B。需要参考 Apple 的 官方说明 安装 PyTorch-Nightly(正确的版本号应该是2.x.x.dev2023xxxx,而不是 2.x.x)。

目前在 macOS 上只支持从本地加载模型,并使用 mps 后端

1
2
3
4
5
6
self.model = (
    AutoModel.from_pretrained(
        MODEL_PATH,
        trust_remote_code=True,
        device_map="auto"
    ).to('mps').eval())
  1. 一切就绪,运行 DEMO 服务
1
streamlit run main.py

如果一切工作正常,且你已经下载好了模型,那么将会弹出一个交互式的网页,你可以在里面进行对话等操作。

ChatGLM3 DEMO

# 结语

如果你在部署过程中有任何问题,请不要犹豫在下面的评论区提问,你可以发送图片,以便更好的定位问题。