davanstrien HF staff commited on
Commit
93409d5
1 Parent(s): d571f9b

Add link to the paper

Browse files

This PR adds a link to the associated arxiv paper. This will also mean the Hugging Face paper page (https://huggingface.co/papers/2401.02909) is linked back to the model.

Files changed (1) hide show
  1. README.md +3 -0
README.md CHANGED
@@ -30,6 +30,8 @@ inference: false
30
  Bode é um modelo de linguagem (LLM) para o português desenvolvido a partir do modelo Llama 2 por meio de fine-tuning no dataset Alpaca, traduzido para o português pelos autores do Cabrita. Este modelo é projetado para tarefas de processamento de linguagem natural em português, como geração de texto, tradução automática, resumo de texto e muito mais.
31
  O objetivo do desenvolvimento do BODE é suprir a escassez de LLMs para a língua portuguesa. Modelos clássicos, como o próprio LLaMa, são capazes de responder prompts em português, mas estão sujeitos a muitos erros de gramática e, por vezes, geram respostas na língua inglesa. Ainda há poucos modelos em português disponíveis para uso gratuito e, segundo nosso conhecimento, não modelos disponíveis com 13b de parâmetros ou mais treinados especificamente com dados em português.
32
 
 
 
33
  ## Detalhes do Modelo
34
 
35
  - **Modelo Base:** Llama 2
@@ -133,6 +135,7 @@ Se você usar o modelo de linguagem Bode em sua pesquisa ou projeto, por favor,
133
  }
134
  ```
135
 
 
136
  ## Contribuições
137
 
138
  Contribuições para a melhoria deste modelo são bem-vindas. Sinta-se à vontade para abrir problemas e solicitações pull.
 
30
  Bode é um modelo de linguagem (LLM) para o português desenvolvido a partir do modelo Llama 2 por meio de fine-tuning no dataset Alpaca, traduzido para o português pelos autores do Cabrita. Este modelo é projetado para tarefas de processamento de linguagem natural em português, como geração de texto, tradução automática, resumo de texto e muito mais.
31
  O objetivo do desenvolvimento do BODE é suprir a escassez de LLMs para a língua portuguesa. Modelos clássicos, como o próprio LLaMa, são capazes de responder prompts em português, mas estão sujeitos a muitos erros de gramática e, por vezes, geram respostas na língua inglesa. Ainda há poucos modelos em português disponíveis para uso gratuito e, segundo nosso conhecimento, não modelos disponíveis com 13b de parâmetros ou mais treinados especificamente com dados em português.
32
 
33
+ Este [artigo](https://arxiv.org/abs/2401.02909) discute o modelo com mais detalhes.
34
+
35
  ## Detalhes do Modelo
36
 
37
  - **Modelo Base:** Llama 2
 
135
  }
136
  ```
137
 
138
+
139
  ## Contribuições
140
 
141
  Contribuições para a melhoria deste modelo são bem-vindas. Sinta-se à vontade para abrir problemas e solicitações pull.