lucianosb commited on
Commit
04cf906
1 Parent(s): 69f5b05

Inclui exemplos

Browse files
Files changed (1) hide show
  1. README.md +13 -1
README.md CHANGED
@@ -16,6 +16,8 @@ pipeline_tag: text-generation
16
  - Artigo: [Sabiá: Portuguese Large Language Models](https://arxiv.org/pdf/2304.07880.pdf)
17
  - Licença: É a mesma do modelo LLaMA-1's, restrigindo o uso do modelo apenas para fins de pesquisa acadêmica.
18
 
 
 
19
  ## Arquivos Incluídos
20
 
21
  | Nome | Método Quant | Bits | Tamanho | Desc |
@@ -30,7 +32,17 @@ pipeline_tag: text-generation
30
 
31
  ## Como executar com `llama.cpp`
32
 
33
- Usei o seguinte comando. Ajuste para suas necessidades:
 
 
 
 
 
 
 
 
 
 
34
 
35
  ```
36
  ./main -m ./models/sabia-7b/sabia7b-q5_1.gguf --color --temp 0.5 -n 256 -p "### Instrução: {comando} ### Resposta:"
 
16
  - Artigo: [Sabiá: Portuguese Large Language Models](https://arxiv.org/pdf/2304.07880.pdf)
17
  - Licença: É a mesma do modelo LLaMA-1's, restrigindo o uso do modelo apenas para fins de pesquisa acadêmica.
18
 
19
+ Os modelos Sabiá foram otimizados com language modeling objective, mas não foram treinados para seguir instruções (instruction tuning). Ou seja, eles não são chatbots. Eles funcionam bem em tarefas few-shot: você passa exemplos de entrada e saída, seguidos por um novo exemplo de entrada, daí o modelo gera o texto complementar (a resposta).
20
+
21
  ## Arquivos Incluídos
22
 
23
  | Nome | Método Quant | Bits | Tamanho | Desc |
 
32
 
33
  ## Como executar com `llama.cpp`
34
 
35
+ Usei o seguinte comando. Para melhores resultados forneça exemplos de resultados esperados. Exemplo:
36
+
37
+ > Classifique a string abaixo em uma ou mais das seguintes classes: A, B, C ou D.
38
+ >
39
+ > String: <string 1>
40
+ >
41
+ > Classes: B, D
42
+ >
43
+ > String: <string 2>
44
+ >
45
+ > Classes:
46
 
47
  ```
48
  ./main -m ./models/sabia-7b/sabia7b-q5_1.gguf --color --temp 0.5 -n 256 -p "### Instrução: {comando} ### Resposta:"