glm-4-voice-9b-int4 / README.md
cydxg's picture
Update README.md
6ef0e23 verified
|
raw
history blame
1.89 kB
metadata
base_model:
  - THUDM/glm-4-voice-9b
base_model_relation: quantized
language:
  - zh
  - en
tags:
  - chatglm

GLM-4-Voice-9B (INT4 Quantized)

中文 | English

模型简介

GLM-4-Voice 是智谱 AI 推出的端到端语音模型。GLM-4-Voice 能够直接理解和生成中英文语音,进行实时语音对话,并且能够根据用户的指令改变语音的情感、语调、语速、方言等属性。 本仓库是是GLM-4-Voice-9B经过INT4量化的版本。经过优化后,显存需求显著降低,仅需12GB显存即可运行。经过测试,该模型可在NVIDIA GeForce RTX 3060 12GB显卡上流畅运行。

使用教程

创建虚拟环境

首先,确保使用Python 3.10,创建虚拟环境:

# 亲测不支持python3.8/3.9/3.12,存在库兼容问题
conda create -n GLM-4-Voice python=3.10

激活虚拟环境并克隆模型

激活虚拟环境后,克隆模型和代码:

conda activate GLM-4-Voice
git clone https://huggingface.co/cydxg/glm-4-voice-9b-int4

对于中国大陆用户,可以使用以下命令进行克隆:

git clone https://hf-mirror.com/cydxg/glm-4-voice-9b-int4

安装依赖

进入模型目录并安装所需依赖:

cd glm-4-voice-9b-int4
conda install -c conda-forge openfst
conda install -c conda-forge pynini==2.1.5
pip install -r requirements.txt
mkdir third_party
cd third_party
git clone https://github.com/shivammehta25/Matcha-TTS Matcha-TTS
# 根据自己的CUDA版本选择torch
conda install pytorch==2.4.1 torchvision==0.19.1 torchaudio==2.4.1 pytorch-cuda=12.4 -c pytorch -c nvidia

启动模型服务

首先启动模型服务:

python model_server.py

运行网页Demo

接着运行网页Demo以访问模型:

python web_demo.py

即可通过访问 http://localhost:8888 来使用模型。