Inclui exemplos
Browse files
README.md
CHANGED
@@ -16,6 +16,8 @@ pipeline_tag: text-generation
|
|
16 |
- Artigo: [Sabiá: Portuguese Large Language Models](https://arxiv.org/pdf/2304.07880.pdf)
|
17 |
- Licença: É a mesma do modelo LLaMA-1's, restrigindo o uso do modelo apenas para fins de pesquisa acadêmica.
|
18 |
|
|
|
|
|
19 |
## Arquivos Incluídos
|
20 |
|
21 |
| Nome | Método Quant | Bits | Tamanho | Desc |
|
@@ -30,7 +32,17 @@ pipeline_tag: text-generation
|
|
30 |
|
31 |
## Como executar com `llama.cpp`
|
32 |
|
33 |
-
Usei o seguinte comando.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
34 |
|
35 |
```
|
36 |
./main -m ./models/sabia-7b/sabia7b-q5_1.gguf --color --temp 0.5 -n 256 -p "### Instrução: {comando} ### Resposta:"
|
|
|
16 |
- Artigo: [Sabiá: Portuguese Large Language Models](https://arxiv.org/pdf/2304.07880.pdf)
|
17 |
- Licença: É a mesma do modelo LLaMA-1's, restrigindo o uso do modelo apenas para fins de pesquisa acadêmica.
|
18 |
|
19 |
+
Os modelos Sabiá foram otimizados com language modeling objective, mas não foram treinados para seguir instruções (instruction tuning). Ou seja, eles não são chatbots. Eles funcionam bem em tarefas few-shot: você passa exemplos de entrada e saída, seguidos por um novo exemplo de entrada, daí o modelo gera o texto complementar (a resposta).
|
20 |
+
|
21 |
## Arquivos Incluídos
|
22 |
|
23 |
| Nome | Método Quant | Bits | Tamanho | Desc |
|
|
|
32 |
|
33 |
## Como executar com `llama.cpp`
|
34 |
|
35 |
+
Usei o seguinte comando. Para melhores resultados forneça exemplos de resultados esperados. Exemplo:
|
36 |
+
|
37 |
+
> Classifique a string abaixo em uma ou mais das seguintes classes: A, B, C ou D.
|
38 |
+
>
|
39 |
+
> String: <string 1>
|
40 |
+
>
|
41 |
+
> Classes: B, D
|
42 |
+
>
|
43 |
+
> String: <string 2>
|
44 |
+
>
|
45 |
+
> Classes:
|
46 |
|
47 |
```
|
48 |
./main -m ./models/sabia-7b/sabia7b-q5_1.gguf --color --temp 0.5 -n 256 -p "### Instrução: {comando} ### Resposta:"
|