phpaiola commited on
Commit
b2333d5
·
1 Parent(s): bc8e568

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +8 -1
README.md CHANGED
@@ -32,6 +32,13 @@ Bode é um modelo de linguagem (LLM) para o português desenvolvido a partir do
32
  - **Dataset de Treinamento:** Alpaca
33
  - **Idioma:** Português
34
 
 
 
 
 
 
 
 
35
  ## Uso
36
 
37
  Você pode usar o Bode facilmente com a biblioteca Transformers do HuggingFace. Aqui está um exemplo simples de como carregar o modelo e gerar texto:
@@ -93,7 +100,7 @@ evaluate("O que é um bode?")
93
 
94
  ## Treinamento e Dados
95
 
96
- O modelo Bode foi treinado por fine-tuning a partir do modelo Llama 2 usando o dataset Alpaca em português. O treinamento foi realizado no Supercomputador Santos Dumont do LNCC, através do projeto da Fundunesp em parceria com a Petrobras: 2019/00697-8 - ProtoRADIAR: Métodos de Captura e Disseminação do Conhecimento, através de Processamento de Linguagem Natural na Área de Poços.
97
 
98
  ## Contribuições
99
 
 
32
  - **Dataset de Treinamento:** Alpaca
33
  - **Idioma:** Português
34
 
35
+ ## Versões disponíveis
36
+
37
+ | Quantidade de parâmetros | Modelo |
38
+ | :-: | :-: |
39
+ | 7b |[recogna-nlp/bode-7b-alpaca-pt-br](https://huggingface.co/recogna-nlp/bode-7b-alpaca-pt-br) |
40
+ | 13b |[recogna-nlp/bode-13b-alpaca-pt-br](https://huggingface.co/recogna-nlp/bode-13b-alpaca-pt-br)|
41
+
42
  ## Uso
43
 
44
  Você pode usar o Bode facilmente com a biblioteca Transformers do HuggingFace. Aqui está um exemplo simples de como carregar o modelo e gerar texto:
 
100
 
101
  ## Treinamento e Dados
102
 
103
+ O modelo Bode foi treinado por fine-tuning a partir do modelo Llama 2 usando o dataset Alpaca em português. O treinamento foi realizado no Supercomputador Santos Dumont do LNCC, através do projeto da Fundunesp em parceria com a Petrobras: 2019/00697-8 - ProtoRADIAR: Métodos de Captura e Disseminação do Conhecimento, através de Processamento de Linguagem Natural na Área de Poços. O uso do Santos Dumont possibilitou o treinamento de modelos maiores, como o LLaMa2-13b.
104
 
105
  ## Contribuições
106