File size: 1,434 Bytes
b555ab8
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
---
frameworks:
- Pytorch
license: other
tasks:
- text-generation

#model-type:
##如 gpt、phi、llama、chatglm、baichuan 等
#- chatglm

#domain:
##如 nlp、cv、audio、multi-modal
#- nlp

#language:
##语言代码列表 https://help.aliyun.com/document_detail/215387.html?spm=a2c4g.11186623.0.0.9f8d7467kni6Aa
#- cn 

#metrics:
##如 CIDEr、Blue、ROUGE 等
#- CIDEr

#tags:
##各种自定义,包括 pretrained、fine-tuned、instruction-tuned、RL-tuned 等训练方法和其他
#- gguf

#tools:
##如 vllm、fastchat、llamacpp、AdaSeq 等
#- llamacpp
---

# GLMEDGE-Chat-GGUF

## GLM-Edge 模型介绍

GLM-Edge是基于GLM系列模型的一款边缘计算优化的大型语言模型。该模型在保持原有GLM模型强大语言处理能力的基础上,针对边缘设备进行了特殊优化,以适应资源受限的环境。

## 快速开始

安装
目前针对该模型的适配代码正在积极合入官方llama.cpp中,可通过下述适配版本进行测试:

```
git clone https://github.com/piDack/llama.cpp -b support_glm_edge_model
cmake -B build -DGGML_CUDA=ON # 或开启其他加速硬件
cmake --build build -- -j
```

使用
安装完成后,您可以通过以下命令启动GLM-Edge Chat模型:
```
llama-cli -m <path>/model.gguf -p "<|user|>\nhi<|assistant|>\n" -ngl 999
```
在命令行界面,您可以与模型进行交互,输入您的需求,模型将为您提供相应的回复。