
我有一台 32G 内存 Macbook Pro,想要运行大语言模型看能不能替代 OpenAI 的 API。下面是我在 Macbook 上运行 ChatGLM-6B 的步骤。
1 | git clone https://github.com/THUDM/ChatGLM-6B |
创建虚拟环境
1 | cd ChatGLM-6B |
激活虚拟环境
1 | source .venv/bin/activate |
安装依赖
1 | pip install -r requirements.txt |
下载模型
1 | cd .. |
修改代码使用 MPS 后端和下载的好的模型
修改 webapp.py 文件。
- 将
.cuda()改为.to("mps") - 将模型和 tokenizer 的路径改为 huggingface 上克隆下来的 chatglm-6b 仓库本地路径。下面我的例子中,本地路径为
/Users/eson/git/chatgml-6b-model。
1 | -tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True) |
运行
1 | python webapp.py |
这将会在本地启动一个 web 服务,会自动打开浏览器。