File size: 434 Bytes
80026b2
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
---
license: apache-2.0
language:
- zh
---


# Chinese-Alpaca-LoRA-7B-ggml

由[chinese-alpaca-lora-7b](https://huggingface.co/ziqingyang/chinese-alpaca-lora-7b)与[llama-7b-hf](https://huggingface.co/decapoda-research/llama-7b-hf)合并后并进行4bit量化后的模型。   
按照[Chinese-LLaMA-Alpaca](https://github.com/ymcui/Chinese-LLaMA-Alpaca)文档制作而成。   

一样的东西合那么多次干啥?不环保!😝