File size: 1,602 Bytes
70e7260 23baaf1 70e7260 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 |
---
base_model:
- THUDM/glm-4-voice-9b
base_model_relation: quantized
---
# GLM-4-Voice-9B (INT4 Quantized)
## 模型简介
GLM-4-Voice 是智谱 AI 推出的端到端语音模型。GLM-4-Voice 能够直接理解和生成中英文语音,进行实时语音对话,并且能够根据用户的指令改变语音的情感、语调、语速、方言等属性。
本仓库是是GLM-4-Voice-9B经过INT4量化的版本。经过优化后,显存需求显著降低,仅需12GB显存即可运行。经过测试,该模型可在NVIDIA GeForce RTX 3060 12GB显卡上流畅运行。
## 使用教程
### 创建虚拟环境
首先,确保使用Python 3.10,创建虚拟环境:
```bash
# no support for python=3.8/3.9/3.12
conda create -n GLM-4-Voice python=3.10
```
### 激活虚拟环境并克隆模型
激活虚拟环境后,克隆模型和代码:
```bash
conda activate GLM-4-Voice
git clone https://huggingface.co/cydxg/glm-4-voice-9b-int4
```
对于中国大陆用户,可以使用以下命令进行克隆:
```bash
git clone https://hf-mirror.com/cydxg/glm-4-voice-9b-int4
```
### 安装依赖
进入模型目录并安装所需依赖:
```bash
cd glm-4-voice-9b-int4
pip install -r requirements.txt
# 根据自己的CUDA版本选择torch
conda install pytorch==2.4.1 torchvision==0.19.1 torchaudio==2.4.1 pytorch-cuda=12.4 -c pytorch -c nvidia
```
### 启动模型服务
首先启动模型服务:
```bash
python model_server.py
```
### 运行网页Demo
接着运行网页Demo以访问模型:
```bash
python web_demo.py
```
即可通过访问 `http://localhost:8888` 来使用模型。 |