lucianosb commited on
Commit
db7e6c4
1 Parent(s): 95dee61

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +2 -3
README.md CHANGED
@@ -14,11 +14,10 @@ quantized_by: TheBloke
14
  - Criador do Modelo: [22h](https://huggingface.co/22h)
15
  - Modelo Original: [Open Cabrita 3B](https://huggingface.co/22h/open-cabrita3b)
16
 
17
- ## Provided files
18
 
19
  | Nome | Método Quant | Bits | Tamanho | Desc |
20
- | ---- | ---- | ---- | ---- | ---- | ----- |
21
-
22
  | [ggml-opencabrita3b-q4_0.gguf](https://huggingface.co/lucianosb/open-cabrita3b-GGUF/blob/main/ggml-opencabrita3b-q4_0.gguf) | q4_0 | 4 | 1.94 GB | Quantização em 4-bit. |
23
  | [ggml-opencabrita3b-q4_1.gguf](https://huggingface.co/lucianosb/open-cabrita3b-GGUF/blob/main/ggml-opencabrita3b-q4_1.gguf) | q4_1 | 4 | 2.14 GB | Quantização em 4-bit. Acurácia maior que q4_0 mas não tão boa quanto q5_0. Inferência mais rápida que os modelos q5. |
24
  | [ggml-opencabrita3b-q5_0.gguf](https://huggingface.co/lucianosb/open-cabrita3b-GGUF/blob/main/ggml-opencabrita3b-q5_0.gguf) | q5_0 | 5 | 2.34 GB | Quantização em 5-bit. Melhor acurácia, maior uso de recursos, inferência mais lenta. |
 
14
  - Criador do Modelo: [22h](https://huggingface.co/22h)
15
  - Modelo Original: [Open Cabrita 3B](https://huggingface.co/22h/open-cabrita3b)
16
 
17
+ ## Arquivos Incluídos
18
 
19
  | Nome | Método Quant | Bits | Tamanho | Desc |
20
+ | ---- | ---- | ---- | ---- | ----- |
 
21
  | [ggml-opencabrita3b-q4_0.gguf](https://huggingface.co/lucianosb/open-cabrita3b-GGUF/blob/main/ggml-opencabrita3b-q4_0.gguf) | q4_0 | 4 | 1.94 GB | Quantização em 4-bit. |
22
  | [ggml-opencabrita3b-q4_1.gguf](https://huggingface.co/lucianosb/open-cabrita3b-GGUF/blob/main/ggml-opencabrita3b-q4_1.gguf) | q4_1 | 4 | 2.14 GB | Quantização em 4-bit. Acurácia maior que q4_0 mas não tão boa quanto q5_0. Inferência mais rápida que os modelos q5. |
23
  | [ggml-opencabrita3b-q5_0.gguf](https://huggingface.co/lucianosb/open-cabrita3b-GGUF/blob/main/ggml-opencabrita3b-q5_0.gguf) | q5_0 | 5 | 2.34 GB | Quantização em 5-bit. Melhor acurácia, maior uso de recursos, inferência mais lenta. |