lucianosb commited on
Commit
95dee61
1 Parent(s): c223711

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +36 -1
README.md CHANGED
@@ -1,3 +1,38 @@
1
  ---
2
- license: llama2
 
 
 
 
 
 
 
 
3
  ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  ---
2
+ inference: false
3
+ language:
4
+ - pt
5
+ license: other
6
+ model_creator: 22H
7
+ model_link: https://huggingface.co/22h/open-cabrita3b
8
+ model_name: Open Cabrita 3B
9
+ model_type: llama
10
+ quantized_by: TheBloke
11
  ---
12
+
13
+ # Open Cabrita 3B - GGUF
14
+ - Criador do Modelo: [22h](https://huggingface.co/22h)
15
+ - Modelo Original: [Open Cabrita 3B](https://huggingface.co/22h/open-cabrita3b)
16
+
17
+ ## Provided files
18
+
19
+ | Nome | Método Quant | Bits | Tamanho | Desc |
20
+ | ---- | ---- | ---- | ---- | ---- | ----- |
21
+
22
+ | [ggml-opencabrita3b-q4_0.gguf](https://huggingface.co/lucianosb/open-cabrita3b-GGUF/blob/main/ggml-opencabrita3b-q4_0.gguf) | q4_0 | 4 | 1.94 GB | Quantização em 4-bit. |
23
+ | [ggml-opencabrita3b-q4_1.gguf](https://huggingface.co/lucianosb/open-cabrita3b-GGUF/blob/main/ggml-opencabrita3b-q4_1.gguf) | q4_1 | 4 | 2.14 GB | Quantização em 4-bit. Acurácia maior que q4_0 mas não tão boa quanto q5_0. Inferência mais rápida que os modelos q5. |
24
+ | [ggml-opencabrita3b-q5_0.gguf](https://huggingface.co/lucianosb/open-cabrita3b-GGUF/blob/main/ggml-opencabrita3b-q5_0.gguf) | q5_0 | 5 | 2.34 GB | Quantização em 5-bit. Melhor acurácia, maior uso de recursos, inferência mais lenta. |
25
+ | [ggml-opencabrita3b-q5_1.gguf](https://huggingface.co/lucianosb/open-cabrita3b-GGUF/blob/main/ggml-opencabrita3b-q5_1.gguf) | q5_1 | 5 | 2.53 GB | Quantização em 5-bit. Ainda Melhor acurácia, maior uso de recursos, inferência mais lenta. |
26
+ | [ggml-opencabrita3b-q8_0.gguf](https://huggingface.co/lucianosb/open-cabrita3b-GGUF/blob/main/ggml-opencabrita3b-q8_0.gguf) | q8_0 | 8 | 3.52 GB | Quantização em 8-bit. Quase indistinguível do float16. Usa muitos recursos e é mais lento. |
27
+
28
+ **Observação**: os valores de RAM acima não pressupõem descarregamento de GPU. Se as camadas forem descarregadas para a GPU, isso reduzirá o uso de RAM e usará VRAM.
29
+
30
+ ## Como executar com `llama.cpp`
31
+
32
+ Usei o seguinte comando. Ajuste para suas necessidades:
33
+
34
+ ```
35
+ ./main -m ./models/open-cabrita3b/ggml-opencabrita3b-q5_1.gguf -n 128 -p "Instrução: Escreva um poema sobre Ciência e Tecnologia. Resposta: "
36
+ ```
37
+
38
+ Para compreender os parâmetros, veja [a documentação do llama.cpp](https://github.com/ggerganov/llama.cpp/blob/master/examples/main/README.md)